home *** CD-ROM | disk | FTP | other *** search
/ Cream of the Crop 3 / Cream of the Crop 3.iso / utility / dea201.zip / INTERNET.CRY < prev    next >
Text File  |  1993-11-01  |  167KB  |  3,287 lines

  1.  
  2. From owner-cypherpunks@toad.com Thu Jul 29 13:15:43 1993
  3.  id <AA19932>; Thu, 29 Jul 1993 13:15:31 -0600
  4. Received: from toad.com by relay2.UU.NET with SMTP
  5.  (5.61/UUNET-internet-primary) id AA19702; Thu, 29 Jul 93 14:54:48 -0400
  6. Received: by toad.com id AA18528; Thu, 29 Jul 93 11:43:43 PDT
  7. Received: by toad.com id AA18525; Thu, 29 Jul 93 11:43:37 PDT
  8. Return-Path: <hh@pmantis.berkeley.edu>
  9. Received: from pmantis.berkeley.edu ([128.32.182.94]) by toad.com id AA18521; T
  10. Received: by pmantis.berkeley.edu (AIX 3.2/UCB 5.64/4.03)
  11.           id AA18858; Thu, 29 Jul 1993 11:43:29 -0700
  12. Date: Thu, 29 Jul 1993 11:43:29 -0700
  13. Message-Id: <9307291843.AA18858@pmantis.berkeley.edu>
  14. To: cypherpunks@toad.com
  15. From: nobody@pmantis.berkeley.edu
  16. Subject: Chaum's Dining Cryptographers [LONG] (was: Digital Money again)
  17. Remailed-By: Tommy the Tourist <tommy@out>
  18. Status: OR
  19.  
  20. Someone suggested that Allan Bailey seek this paper on soda.berkeley.edu. It is
  21. not there, but it was posted to the list last December. Here it is again.
  22.  
  23. Date: 11 Dec 1992 14:58:38 -0800
  24. From: nobody@pmantis.berkeley.edu
  25. Subject: Chaum's "The Dining Cryptographers Problem" (VERY LONG)
  26. To: cypherpunks@toad.com
  27. Message-id: <9212112258.AA09353@pmantis.berkeley.edu>
  28. Content-transfer-encoding: 7BIT
  29. Remailed-By: Tommy the Tourist <tommy@out>
  30.  
  31. The following article is brought to you by the Information Liberation
  32. Front (ILF), a group dedicated to the timely distribution of important
  33. information.
  34.  
  35. The ILF encourages you to use this article for educational purposes
  36. only and to seek out the original article. Minor spelling errors and
  37. slight alterations of formulas may have gotten past the OCR process.
  38.  
  39. We apologize for the length, but feel this is one of the key articles
  40. in this area.
  41.  
  42.  
  43. J. Cryptology (1988) 1:65-75
  44.  
  45. The Dining Cryptographers Problem:
  46.  
  47. Unconditional Sender and Recipient Untraceability
  48.  
  49. David Chaum
  50. Centre for Mathematics and Computer Science, Kruislan 413, 1098 SJ
  51. Amsterdam, The Netherlands
  52.  
  53. Abstract.  Keeping confidential who sends which messages, in a
  54. world where any physical transmission can be traced to its
  55. origin, seems impossible. The solution presented here is
  56. unconditionally or cryptographically secure, depending on whether
  57. it is based on one-time-use keys or on public keys, respectively.
  58. It can be adapted to address efficiently a wide variety of
  59. practical considerations.
  60.  
  61. Key words.  Untraceability, Unconditional Security, Pseudonymity.
  62.  
  63. Introduction
  64.  
  65. Three cryptographers are sitting down to dinner at their favorite
  66. three-star restaurant. Their waiter informs them that arrangements
  67. have been made with the maitre d'hotel for the bill to be paid
  68. anonymously. One of the cryptographers might be paying for the dinner,
  69. or it might have been NSA (U.S. National Security Agency). The three
  70. cryptographers respect each other's right to make an anonymous
  71. payment, but they wonder if NSA is paying. They resolve their
  72. uncertainty fairly by carrying out the following protocol:
  73.  
  74. Each cryptographer flips an unbiased coin behind his menu, between
  75. him and the cryptographer on his right, so that only the two of them can
  76. see the outcome. Each cryptographer then states aloud whether the two
  77. coins he can see--the one he flipped and the one his left-hand neighbor
  78. flipped--fell on the same side or on different sides. If one of the
  79. cryptographers is the payer, he states the opposite of what he sees. An
  80. odd number of differences uttered at the table indicates that a
  81. cryptographer is paying; an even number indicates that NSA is paying
  82. (assuming that the dinner was paid for only once). Yet if a
  83. cryptographer is paying, neither of the other two learns anything from
  84. the utterances about which cryptographer it is.
  85.  
  86. To see why the protocol is unconditionally secure if carried out
  87. faithfully, consider the dilemma of a cryptographer who is not the
  88. payer and wishes to find out which cryptographer is. (If NSA pays, there
  89. is no anonymity problem.) There are two cases. In case (1) the two
  90. coins he sees are the same, one of the other cryptographers said
  91. "different," and the other one said "same." If the hidden outcome was
  92. the same as the two outcomes he sees, the cryptographer who said
  93. "different" is the payer; if the outcome was different, the one who said
  94. "same" is the payer. But since the hidden coin is fair, both possibilities
  95. are equally likely. In case (2) the coins he sees are different; if both
  96. other cryptographers said "different," then the payer is closest to the
  97. coin that is the same as the hidden coin; if both said "same," then the
  98. payer is closest to the coin that differs from the hidden coin. Thus, in
  99. each subcase, a nonpaying cryptographer learns nothing about which of
  100. the other two is paying.
  101.  
  102. The cryptographers become intrigued with the ability to make
  103. messages public untraceably. They devise a way to do this at the table
  104. for a statement of arbitrary length: the basic protocol is repeated over
  105. and over; when one cryptographer wishes to make a message public, he
  106. merely begins inverting his statements in those rounds corresponding
  107. to 1 's in a binary coded version of his message. If he notices that his
  108. message would collide with some other message, he may for example
  109. wait a number of rounds chosen at random from a suitable distribution
  110. before trying to transmit again.
  111.  
  112. 1. Generalizing the Approach
  113.  
  114. During dinner, the cryptographers also consider how any number of
  115. participants greater than one can carry out a version of the protocol.
  116. (With two participants, only nonparticipant listeners are unable to
  117. distinguish between the two potential senders.) Each participant has a
  118. secret key bit in common with, say, every other participant. Each
  119. participant outputs the sum, modulo two, of all the key bits he shares,
  120. and if he wishes to transmit, he inverts his output. If no participant
  121. transmits, the modulo two sum of the outputs must be zero, since every
  122. key bit enters exactly twice; if one participant transmits, the sum
  123. must be one. (In fact, any even number of transmitting participants
  124. yields zero, and any odd number yields one.) For j rounds, each
  125. participant could have a j-bit key in common with every other
  126. participant, and the ith bit of each such key would be used only in the
  127. ith round. Detected collision of messages leads to attempted
  128. retransmission as described above; undetected collision results only
  129. from an odd number of synchronized identical message segments.
  130. (Generalization to fields other than GF(2) is possible, but seems to
  131. offer little practical advantage.)
  132.  
  133. Other generalizations are also considered during dinner. The
  134. underlying assumptions are first made explicit, including modeling
  135. key-sharing arrangements as graphs. Next, the model is illustrated
  136. with some simple examples. The potential for cooperations of
  137. participants to violate the security of others is then looked at. Finally,
  138. a proof of security based on systems of linear equations is given.
  139.  
  140. 1.1. Model
  141.  
  142. Each participant is assumed to have two kinds of secret: (a) the keys
  143. shared with other participants for each round; and (b) the inversion
  144. used in each round (i.e., a 1 if the participant inverts in that round and a
  145. 0 if not). Some or all of a participant's secrets may be given to other
  146. participants in various forms of collusion, discussion of which is
  147. postponed until Section 1.3. (For simplicity in exposition, the
  148. possibility of secrets being stolen is ignored throughout.)
  149.  
  150. The remaining information about the system may be described as: (a)
  151. who shares keys with whom; and (b) what each participant outputs
  152. during each round (the modulo two sum of that participant's keys and
  153. inversion). This information need not be secret to ensure
  154. untraceability. If it is publicly known and agreed, it allows various
  155. extensions discussed in Sections 2.5 and 2.6. The sum of all the
  156. outputs will, of course, usually become known to all participants.
  157.  
  158. In the terminology of graphs, each participant corresponds to a
  159. vertex and each key corresponds to an edge. An edge is incident on the
  160. vertices corresponding to the pair of participants that shares the
  161. corresponding key. From here on, the graph and dinner-table
  162. terminologies will be used interchangeably. Also, without loss of
  163. generality, it will be assumed that the graph is connected (i.e., that a
  164. path exists between every pair of vertices), since each connected
  165. component (i.e., each maximal connected subgraph) could be considered
  166. a separate untraceable-sender system.
  167.  
  168. An anonymity set seen by a set of keys is the set of vertices in a
  169. connected component of the graph formed from the original graph by
  170. removing the edges concerned. Thus a set of keys sees one anonymity
  171. set for each connected partition induced by removing the keys. The main
  172. theorem of Section 1.4 is essentially that those having only the public
  173. information and a set of keys seeing some anonymity set can learn
  174. nothing about the members of that anonymity set except the overall
  175. parity of their inversions. Thus, for example, any two participants
  176. connected by at least one chain of keys unknown to an observer are both
  177. in the same anonymity set seen by the observer's keys, and the observer
  178. gains nothing that would help distinguish between their messages.
  179.  
  180. 1.2. Some Examples
  181.  
  182. A few simple consequences of the above model may be illustrative. The
  183. anonymity set seen by the empty set (i.e., by a nonparticipant observer)
  184. is the set of all vertices, since the graph is assumed connected and
  185. remains so after zero edges are removed. Also, the anonymity sets seen
  186. by the full set of edges are all singleton sets, since each vertex's
  187. inversion is just the sum of its output and the corresponding key bits.
  188.  
  189. If all other participants cooperate fully against one, of course no
  190. protocol can keep that singleton's messages untraceable, since
  191. untraceability exists only among a set of possible actors, and if the set
  192. has only one member, its messages are traceable. For similar reasons,
  193. if a participant believes that some subset of other participants will
  194. fully cooperate against him, there is no need for him to have keys in
  195. common with them.
  196.  
  197. A biconnected graph (i.e., a graph with at least two vertex-disjoint
  198. paths between every pair of vertices) has no cut-vertices (i.e., a single
  199. vertex whose removal partitions the graph into disjoint subgraphs). In
  200. such a graph, the set of edges incident on a vertex v sees (apart from v)
  201. one anonymity set containing all other vertices, since there is a path
  202. not containing v between every pair of vertices, and thus they form a
  203. connected subgraph excluding v; each participant acting alone learns
  204. nothing about the contribution of other participants.
  205.  
  206. 1.3. Collusion of Participants
  207.  
  208. Some participants may cooperate by pooling their keys in efforts to
  209. trace the messages of others; such cooperation will be called collusion.
  210. For simplicity, the possibilities for multiple collusions or for pooling
  211. of information other than full edges will be ignored. Colluders who lie
  212. to each other are only touched on briefly, in Section 2.6.
  213.  
  214. Consider collusion in a complete graph. A vertex is only seen as a
  215. singleton anonymity set by the collection of all edges incident on it; all
  216. other participants must supply the key they share with a participant in
  217. order to determine that participant's inversions. But since a collusion
  218. of all but one participant can always trace that participant merely by
  219. pooling its members' inversions as already mentioned, it gains nothing
  220. more by pooling its keys. The nonsingleton anonymity set seen by all
  221. edges incident on a colluding set of vertices in a complete graph is the
  222. set of all other vertices; again, a collusion yields nothing more from
  223. pooling all its keys than from pooling all its inversions.
  224.  
  225. Now consider noncomplete graphs. A full collusion is a subset of
  226. participants pooling all of their keys. The pooled keys see each colluder
  227. as a singleton anonymity set; the colluders completely sacrifice the
  228. untraceability of their own messages. If a full collusion includes a cut-
  229. set of vertices (i.e., one whose removal partitions the graph), the
  230. collusion becomes nontrivial because it can learn something about the
  231. origin of messages originating outside the collusion; the noncolluding
  232. vertices are partitioned into disjoint subgraphs, which are the
  233. anonymity sets seen by the pooled keys.
  234.  
  235. Members of a partial collusion pool some but not all of their keys.
  236. Unlike the members of a full collusion, each member of a partial
  237. collusion in general has a different set of keys. For it to be nontrivial,
  238. a partial collusion's pooled keys must include the bridges or separating
  239. edges of a segregation or splitting of the graph (i.e., those edges whose
  240. removal would partition the graph). Settings are easily constructed in
  241. which the pooled keys see anonymity sets that partition the graph and
  242. yet leave each colluder in a nonsingleton partition seen by any other
  243. participant. Thus, colluders can join a collusion without having to make
  244. themselves completely traceable to the collusion's other members.
  245.  
  246. 1.4. Proof of Security
  247.  
  248. Consider, without loss of generality, a single round in which say some
  249. full collusion knows some set of keys. Remove the edges known to the
  250. collusion from the key-sharing graph and consider any particular
  251. connected component C of the remaining graph. The vertices of C thus
  252. form an anonymity set seen by the pooled keys.
  253.  
  254. Informally, what remains to be shown is that the only thing the
  255. collusion learns about the members of C is the parity sum of their
  256. inversions. This is intuitively apparent, since the inversions of the
  257. members of C are each in effect hidden from the collusion by one or
  258. more unknown key bits, and only the parity of the sum of these key bits
  259. is known (to be zero). Thus the inversions are hidden by a one-time pad,
  260. and only their parity is revealed, because only the parity of the pad is
  261. known.
  262.  
  263. The setting is formalized as follows: the connected component C is
  264. comprised of rn vertices and n edges. The incidence matrix M of C is
  265. defined as usual, with the vertices labeling the rows and the edges
  266. labeling the columns. Let K, I, and A be stochastic variables defined on
  267. GF(2)^n, GF(2)^m, and GF(2)^m, respectively, such that
  268. K is uniformly distributed over GF(2)^n, K and I are mutually
  269. independent, and A = (MK) cross I. In terms of the protocol, K comprises
  270. the keys corresponding to the edges, I consists of the inversions
  271. corresponding to the vertices, and A is formed by the outputs of the
  272. vertices. Notice that the parity of A (i.e., the modulo two sum of its
  273. components) is always equal to the parity of I, since the columns of M
  274. each have zero parity. The desired result is essentially that A reveals
  275. no more information about I than the parity of 1. More formally:
  276.  
  277. Theorem.  Let a be in GF(2)^n. For each i in GF(2)^n, which is assumed by
  278. I with nonzero probability and which has the same parity as a, the
  279. conditional probability that A = a given that I = i is 2^(1 - m). Hence,
  280. the conditional probability that I = i given that A = a is the a priori
  281. probability that I = i.
  282.  
  283. Proof.  Let i be an element of GF(2)^n have the same parity as a.
  284. Consider the system of linear equations (MK) cross i = a, in k an
  285. element of GF(2)^n. Since the columns of M each have even parity, as
  286. mentioned above, its rows are linearly dependent over GF(2)^m. But as a
  287. consequence of the connectedness of the graph, every proper subset of
  288. rows of M is linearly independent. Thus, the rank of M is m - 1, and so
  289. each vector with zero parity can be written as a linear combination of
  290. the columns of M. This implies that the system is solvable because i
  291. cross a has even parity. Since the set of n column vectors of M has rank
  292. m - 1, the system has exactly 2^(n - m + 1) solutions.
  293.  
  294. Together with the fact that K and I are mutually independent and
  295. that K is uniformly distributed, the theorem follows easily.
  296.  
  297. 2. Some Practical Considerations
  298.  
  299. After dinner, while discussing how they can continue to make
  300. untraceable statements from this respective homes, the cryptographers
  301. take up a variety of other topics. In particular, they consider different
  302. ways to establish the needed keys; debate adapting the approach to
  303. various kinds of communication networks; examine the traditional
  304. problems of secrecy and authentication in the context of a system that
  305. can provide essentially optimal untraceability; address denial of
  306. service caused by malicious and devious participants; and propose
  307. means to discourage socially undesirable messages from being sent.
  308.  
  309. 2.1. Establishing Keys
  310.  
  311. One way to provide the keys needed for longer messages is for one
  312. member of each pair to toss many coins in advance. Two identical
  313. copies of the resulting bits are made, say each on a separate optical
  314. disk. Supplying one such disk (which today can hold on the order of
  315. 10^10 bits) to a partner provides enough key bits to allow people to
  316. type messages at full speed for years. If participants are not
  317. transmitting all the time, the keys can be made to last even longer by
  318. using a substantially slower rate when no message is being sent; the
  319. full rate would be invoked automatically only when a 1 bit indicated
  320. the beginning of a message. (This can also reduce the bandwidth
  321. requirements discussed in Section 2.2.)
  322.  
  323. Another possibility is for a pair to establish a short key and use a
  324. cryptographic pseudorandom-sequence generator to expand it as needed.
  325. Of course this system might be broken if the generator were broken.
  326. Cryptanalysis may be made more difficult, however, by lack of access
  327. to the output of individual generators. Even when the cryptographers do
  328. not exchange keys at dinner, they can safely do so later using a public-
  329. key distribution system (first proposed by [4] and [3]).
  330.  
  331. 2.2 Underlying Communication Techniques
  332.  
  333. A variety of underlying communication networks can be used, and their
  334. topology need not be related to that of the key-sharing graph.
  335.  
  336. Communication systems based on simple cycles, called rings, are
  337. common in local area networks. In a typical ring, each node receives
  338. each bit and passes it round-robin to the next node. This technology is
  339. readily adapted to the present protocols. Consider a single-bit message
  340. like the "I paid" message originally sent at the dinner table. Each
  341. participant exclusive-or's the bit he receives with his own output
  342. before forwarding it to the next participant. When the bit has traveled
  343. full circle, it is the exclusive-or sum of all the participants' outputs,
  344. which is the desired result of the protocol. To provide these messages
  345. to all participants, each bit is sent around a second time by the
  346. participant at the end of the loop.
  347.  
  348. Such an adapted ring requires, on average, a fourfold increase in
  349. bandwidth over the obvious traceable protocols in which messages
  350. travel only halfway around on average before being taken off the ring by
  351. their recipients. Rings differ from the dinner table in that several bit-
  352. transmission delays may be required before all the outputs of a
  353. particular round are known to all participants; collisions are detected
  354. only after such delays.
  355.  
  356. Efficient use of many other practical communication techniques
  357. requires participants to group output bits into blocks. For example, in
  358. high-capacity broadcast systems, such as those based on coaxial cable,
  359. surface radio, or satellites, more efficient use of channel capacity is
  360. obtained by grouping a participant's contribution into a block about the
  361. size of a single message (see, e.g., [5]). Use of such communication
  362. techniques could require an increase in bandwidth on the order of the
  363. number of participants.
  364.  
  365. In a network with one message per block, the well-known contention
  366. protocols can be used: time is divided evenly into frames; a participant
  367. transmits a block during one frame; if the block was garbled by
  368. collision (presumably with another transmitted block), the participant
  369. waits a number of frames chosen at random from some distribution
  370. before attempting to retransmit; the participants' waiting intervals
  371. may be adjusted on the basis of the collision rate and possibly of other
  372. heuristics [5].
  373.  
  374. In a network with many messages per block, a first block may be
  375. used by various anonymous senders to request a "slot reservation" in a
  376. second block. A simple scheme would be for each anonymous sender to
  377. invert one randomly selected bit in the first block for each slot they
  378. wish to reserve in the second block. After the result of the first block
  379. becomes known, the participant who caused the ith 1 bit in the first
  380. block sends in the ith slot of the second block.
  381.  
  382. 2.3. Example Key-Sharing Graphs
  383.  
  384. In large systems it may be desirable to use fewer than the m(m - 1)/2
  385. keys required by a complete graph. If the graph is merely a cycle, then
  386. individuals acting alone learn nothing, but any two colluders can
  387. partition the graph, perhaps fully compromising a participant
  388. immediately between them. Such a topology might nevertheless be
  389. adequate in an application in which nearby participants are not likely
  390. to collude against one another.
  391.  
  392. A different topology assumes the existence of a subset of
  393. participants who each participant believes are sufficiently unlikely to
  394. collude, such as participants with conflicting interests. This subset
  395. constitutes a fully connected subgraph, and the other participants each
  396. share a key with every member of it. Every participant is then
  397. untraceable among all the others, unless all members of the completely
  398. connected subset cooperate. (Such a situation is mentioned again in
  399. Section 3.)
  400.  
  401. If many people wish to participate in an untraceable communication
  402. system, hierarchical arrangements may offer further economy of keys.
  403. Consider an example in which a representative from each local fully
  404. connected subgraph is also a member of the fully connected central
  405. subgraph. The nonrepresentative members of a local subgraph provide
  406. the sum of their outputs to their representative. Representatives would
  407. then add their own contributions before providing the sum to the
  408. central subgraph. Only a local subgraph's representative, or a collusion
  409. of representatives from all other local subgraphs, can recognize
  410. messages as coming from the local subgraph. A collusion comprising
  411. the representative and all but one nonrepresentative member of a local
  412. subgraph is needed for messages to be recognized as coming from the
  413. remaining member.
  414.  
  415. 2.4. Secrecy and Authentication
  416.  
  417. What about the usual cryptologic problems of secrecy and
  418. authentication?
  419.  
  420. A cryptographer can ensure the secrecy of an anonymous message by
  421. encrypting the message with the intended recipient's public key. (The
  422. message should include a hundred or so random bits to foil attempts to
  423. confirm a guess at its content [1].) The sender can even keep the
  424. identity of the intended recipient secret by leaving it to each recipient
  425. to try to decrypt every message. Alternatively, a prearranged prefix
  426. could be attached to each message so that the recipient need only
  427. decrypt messages with recognized prefixes. To keep even the
  428. multiplicity of a prefix's use from being revealed, a different prefix
  429. might be used each time. New prefixes could be agreed in advance,
  430. generated cryptographically as needed, or supplied in earlier messages.
  431.  
  432. Authentication is also quite useful in systems without identification.
  433. Even though the messages are untraceable, they might still bear
  434. digital signatures corresponding to public-key "digital pseudonyms"
  435. [1]; only the untraceable owner of such a pseudonym would be able to
  436. sign subsequent messages with it. Secure payment protocols have
  437. elsewhere been proposed in which the payer and/or the payee might be
  438. untraceable [2]. Other protocols have been proposed that allow
  439. individuals known only by pseudonyms to transfer securely information
  440. about themselves between organizations [2]. All these systems require
  441. solutions to the sender untraceability problem, such as the solution
  442. presented here, if they are to protect the unlinkability of pseudonyms
  443. used to conduct transactions from home.
  444.  
  445. 2.5. Disruption
  446.  
  447. Another question is how to stop participants who, accidentally or even
  448. intentionally, disrupt the system by preventing others from sending
  449. messages. In a sense, this problem has no solution, since any
  450. participant can send messages continuously, thereby clogging the
  451. channel. But nondisupters can ultimately stop disruption in a system
  452. meeting the following requirements: (1) the key-sharing graph is
  453. publicly agreed on; (2) each participant's outputs are publicly agreed on
  454. in such a way that participants cannot change their output for a round
  455. on the basis of other participants' outputs for that round; and (3) some
  456. rounds contain inversions that would not compromise the
  457. untraceability of any nondisrupter.
  458.  
  459. The first requirement has already been mentioned in Section 1.1,
  460. where it was said that this information need not be secret; now it is
  461. required that this information actually be made known to all
  462. participants and that the participants agree on it.
  463.  
  464. The second requirement is in part that disrupters be unable (at least
  465. with some significant probability) to change their output after hearing
  466. other participants' outputs. Some actual channels would automatically
  467. ensure this, such as broadcast systems in which all broadcasts are
  468. made simultaneously on different frequencies. The remainder of the
  469. second requirement, that the outputs be publicly agreed on, might also
  470. be met by broadcasting. Having only channels that do not provide it
  471. automatically, an effective way to meet the full second requirement
  472. would be for participants to "commit" to their outputs before making
  473. them. One way to do this is for participants to make public and agree on
  474. some (possibly compressing and hierarchical, see Section 2.6) one-way
  475. function of their outputs, before the outputs are made public.
  476.  
  477. The third requirement is that at least some rounds can be contested
  478. (i.e., that all inversions can be made public) without compromising the
  479. untraceability of non-disrupting senders. The feasibility of this will be
  480. demonstrated here by a simple example protocol based on the slot
  481. reservation technique already described in Section 2.2.
  482.  
  483. Suppose that each participant is always to make a single reservation
  484. in each reserving block, whether or not he actually intends to send a
  485. message. (Notice that, because of the "birthday paradox," the number of
  486. bits per reserving block must be quadratic in the number of
  487. participants.) A disrupted reserving block would then with very high
  488. probability have Hamming weight unequal to the number of participants.
  489. All bits of such a disrupted reserving block could be contested without
  490. loss of untraceability for nondisrupters.
  491.  
  492. The reserved blocks can also be made to have such safely contestable
  493. bits if participants send trap messages. To lay a trap, a participant
  494. first chooses the index of a bit in some reserving block, a random
  495. message, and a secret key. Then the trapper makes public an
  496. encryption, using the secret key, of both the bit index and the random
  497. message. Later, the trapper reserves by inverting in the round
  498. corresponding to the bit index, and sends the random message in the
  499. resulting reserved slot. If a disrupter is unlucky enough to have
  500. damaged a trap message, then release of the secret key by the trapper
  501. would cause at least one bit of the reserved slot to be contested.
  502.  
  503. With the three requirements satisfied, it remains to be shown how
  504. if enough disrupted rounds are contested, the disrupters will be
  505. excluded from the network.
  506.  
  507. Consider first the case of a single participant's mail computer
  508. disrupting the network. If it tells the truth about contested key bits it
  509. shares (or lies about an even number of bits), the disrupter implicates
  510. itself, because its contribution to the sum is unequal to the sum of
  511. these bits (apart from any allowed inversion). If, on the other hand, the
  512. single disrupter lies about some odd number of shared bits, the values
  513. it claims will differ from those claimed for the same shared bits by
  514. the other participants sharing them. The disrupter thereby casts
  515. suspicion on all participants, including itself, that share the disputed
  516. bits. (It may be difficult for a disrupter to cast substantial suspicion
  517. on a large set of participants, since all the disputed bits will be in
  518. common with the disrupter.) Notice, however, that participants who
  519. have been falsely accused will know that they have been--and by
  520. whom--and should at least refuse to share bits with the disrupter in
  521. the future.
  522.  
  523. Even with colluding multiple disrupters, at least one inversion must
  524. be revealed as illegitimate or at least one key bit disputed, since the
  525. parity of the outputs does not correspond to the number of legitimate
  526. inversions. The result of such a contested round will be the removal of
  527. at least one edge or at least one vertex from the agreed graph. Thus, if
  528. every disruptive action has a nonzero probability of being contested,
  529. only a bounded amount of disruption is possible before the disrupters
  530. share no keys with anyone in the network, or before they are revealed,
  531. and are in either case excluded from the network.
  532.  
  533. The extension presented next can demonstrate the true value of
  534. disputed bits, and hence allows direct incrimination of disrupters.
  535.  
  536. 2.6. Tracing by Consent
  537.  
  538. Antisocial use of a network can be deterred if the cooperation of most
  539. participants makes it possible, albeit expensive, to trace any message.
  540. If, for example, a threatening message is sent, a court might order all
  541. participants to reveal their shared key bits for a round of the message.
  542. The sender of the offending message might try to spread the blame,
  543. however, by lying about some odd number of shared bits. Digital
  544. signatures can be used to stop such blame-spreading altogether. In
  545. principle, each party sharing a key could insist on a signature, made by
  546. the other party sharing, for the value. of each shared bit.
  547.  
  548. Such signatures would allow for contested rounds to be fully resolved,
  549. for accused senders to exonerate themselves, and even for colluders to
  550. convince each other that they are pooling true keys.  Unfortunately,
  551. cooperating participants able to trace a message to its sender could
  552. convince others of the message's origin by revealing the sender's own
  553. signatures. A variation can prevent a participant's signatures from
  554. being used against him in this way: instead of each member of a pair
  555. of participants signing the same shared key bit, each signs a separate
  556. bit, such that the sum of the signed bits is the actual shared key
  557. bit. Signatures on such "split" key bits would still be useful in
  558. resolving contested rounds, since if one contester of a bit shows a
  559. signature made by the second contester, then the second would have to
  560. reveal the corresponding signature made by the first or be thought to
  561. be a disrupter.
  562.  
  563. In many applications it may be impractical to obtain a separate
  564. signature on every key bit or split key bit. The overhead involved could
  565. be greatly reduced, however, by digitally signing cryptographic
  566. compressions of large numbers of key bits. This might of course require
  567. that a whole block of key bits be exposed in showing a signature, but
  568. such blocks could be padded with cryptographically generated
  569. pseudorandom (or truly random) bits, to allow the exposure of fewer
  570. bits per signature. The number of bits and amount of time required to
  571. verify a signature for a single bit can be reduced further by using a
  572. rooted tree in which each node is the one-way compression function of
  573. all its direct descendants; only a digital signature of each participant's
  574. root need be agreed on before use of the keys comprising the leaves.
  575.  
  576. 3. Relation to Previous Work
  577.  
  578. There is another multiparty-secure sender-untraceability protocol in
  579. the literature [1]. To facilitate comparison, it will be called a mix-net
  580. here, while the protocol of the present work is called a dc-net. The
  581. mix-net approach relies on the security of a true public-key system
  582. (and possibly also of a conventional cryptosystem), and is thus at best
  583. computationally secure; the dc-net approach can use unconditional
  584. secrecy channels to provide an unconditionally secure untraceable-
  585. sender system, or can use public-key distribution to provide a
  586. computationally secure system (as described in Section 2.1).
  587.  
  588. Under some trust assumptions and channel limitations, however,
  589. mix-nets can operate where dc-nets cannot. Suppose that a subset of
  590. participants is trusted by every other participant not to collude and
  591. that the bandwidth of at least some participants' channels to the
  592. trusted subset is incapable of handling the total message traffic. Then
  593. mix-nets may operate quite satisfactorily, but dc-nets will be unable
  594. to protect fully each participant's untraceability. Mix-nets can also
  595. provide recipient untraceability in this communication environment,
  596. even though there is insufficient bandwidth for use of the broadcast
  597. approach (mentioned in Section 2.4).
  598.  
  599. If optimal protection against collusion is to be provided and the
  600. crypto-security of mix-nets is acceptable, a choice between mix-nets
  601. and dc-nets may depend on the nature of the traffic. With a mail-like
  602. system that requires only periodic deliveries, and where the average
  603. number of messages per interval is relatively large, mix-nets may be
  604. suitable. When messages must be delivered continually and there is no
  605. time for batching large numbers of them, dc-nets appear preferable.
  606.  
  607. 4. Conclusion
  608.  
  609. This solution to the dining cryptographers problem demonstrates that
  610. unconditional secrecy channels can be used to construct an
  611. unconditional sender-untraceability channel. It also shows that a
  612. public-key distribution system can be used to construct a
  613. computationally secure sender-untraceability channel. The approach
  614. appears able to satisfy a wide range of practical concerns.
  615.  
  616. Acknowledgments
  617.  
  618. I am pleased to thank Jurjen Bos, Gilles Brassard, Jan-Hendrik Evertse,
  619. and the untraceable referees for all their help in revising this article.
  620. It is also a pleasure to thank, as in the original version that was
  621. distributed at Crypto 84, Whitfield Diffie, Ron Rivest, and Gus Simmons
  622. for some stimulating dinner-table conversations.
  623.  
  624. References
  625.  
  626. [1] Chaum, D., Untraceable Electronic Mail, Return Addresses, and
  627. Digital Pseudonyms, Communications of the  ACM, vol. 24, no. 2,
  628. February 1981, pp. 84-88.
  629. [2] Chaum, D., Security Without Identification: Transaction Systems
  630. to Make Big Brother Obsolete, Communications of the ACM, vol. 28,
  631. no. 10, October 1985, pp. 1030-1044.
  632. [3] Diffie, W., and Hellman, M.E., New Directions in Cryptography, IEEE
  633. Transactions on Information Theory, vol. 22, no. 6, November 1976,
  634. pp. 644-654.
  635. [4] Merkle, R.C., Secure Communication over Insecure Channels,
  636. Communications of the ACM, vol. 21, no. 4, 1978, pp. 294-299.
  637. [5] Tanenbaum, A.S., Computer Networks, Prentice Hall, Englewood
  638. Cliffs, New Jersey, 1981.
  639.  
  640.  
  641. [End of Transmission]
  642.  
  643.  
  644. Date: 03 Dec 1992 08:29:12 -0800 (PST)
  645. From: tcmay@netcom.com (Timothy C. May)
  646. Subject: RE: faq & glossary
  647. In-reply-to: <01GRUPQRO0N68WWDDT@delphi.com>; from "NORDEVALD@delphi.com" at
  648.  Dec 2, 92 8:16 pm
  649. To: NORDEVALD@delphi.com
  650. Message-id: <9212031629.AA15785@netcom.netcom.com>
  651. Content-transfer-encoding: 7BIT
  652. X-Mailer: ELM [version 2.3 PL11]
  653.  
  654.  
  655.  
  656. CRYPTO GLOSSARY
  657.  
  658. Compiled by Tim May (tcmay@netcom.com) and Eric Hughes
  659. (hughes@soda.berkeley.edu), circa September 1992.
  660.  
  661. Major Branches of Cryptology (as we see it)
  662.  
  663. - (these sections will introduce the terms in context,
  664. though complete definitions will not be given)
  665.  
  666. *** Encryption
  667. - privacy of messages
  668. - using ciphers and codes to protect the secrecy of
  669. messages
  670. - DES is the most common symmetric cipher (same key for
  671. encryption and decryption)
  672. - RSA is the most common asymmetric cipher (different
  673. keys for encryption and decryption)
  674.  
  675. *** Signatures and Authentication
  676. - proving who you are
  677. - proving you signed a document (and not someone else)
  678.  
  679. *** Untraceable Mail
  680. - untraceable sending and receiving of mail and messages
  681. - focus: defeating eavesdroppers and traffic analysis
  682. - DC protocol (dining cryptographers)
  683.  
  684. *** Cryptographic Voting
  685. - focus: ballot box anonymity
  686. - credentials for voting
  687. - issues of double voting, security, robustness, efficiency
  688.  
  689. *** Digital Cash
  690. - focus: privacy in transactions, purchases
  691. - unlinkable credentials
  692. - blinded notes
  693. - "digital coins" may not be possible
  694.  
  695. *** Crypto Anarchy
  696. - using the above to evade govUt., to bypass tax collection,
  697. etc.
  698. - a technological solution to the problem of too much
  699. government
  700.  
  701.  
  702. *** G L O S S A R Y    ***
  703.  
  704.  
  705. *** agoric systems -- open, free market systems in which
  706. voluntary transactions are central.
  707.  
  708. *** Alice and Bob -- cryptographic protocols are often made
  709. clearer by considering parties A and B, or Alice and Bob,
  710. performing some protocol. Eve the eavesdropper, Paul the
  711. prover, and Vic the verifier are other common stand-in names.
  712.  
  713. *** ANDOS -- all or nothing disclosure of secrets.
  714.  
  715. *** anonymous credential -- a credential which asserts
  716. some right or privilege or fact without revealing the identity
  717. of the holder.  This is unlike CA driver's licenses.
  718.  
  719. *** asymmetric cipher -- same as public key
  720. cryptosystem.
  721.  
  722. *** authentication -- the process of verifying an identity
  723. or credential, to ensure you are who you said you were.
  724.  
  725. *** biometric security -- a type of authentication using
  726. fingerprints, retinal scans, palm prints, or other
  727. physical/biological signatures of an individual.
  728.  
  729. *** bit commitment -- e.g., tossing a coin and then
  730. committing to the value without being able to change the
  731. outcome. The blob is a cryptographic primitive for this.
  732.  
  733. *** blinding, blinded signatures -- A signature that the
  734. signer does not remember having made.  A blind signature is
  735. always a cooperative protocol and the receiver of the
  736. signature provides the signer with the blinding information.
  737.  
  738. *** blob -- the crypto equivalent of a locked box. A
  739. cryptographic primitive for bit commitment, with the
  740. properties that a blobs can represent a 0 or a 1, that others
  741. cannot tell be looking whether itUs a 0 or a 1, that the creator
  742. of the blob can "open" the blob to reveal the contents, and that
  743. no blob can be both a 1 and a 0. An example of this is a flipped
  744. coin covered by a hand.
  745.  
  746. *** channel -- the path over which messages are
  747. transmitted. Channels may be secure or insecure, and may
  748. have eavesdroppers (or enemies, or disrupters, etc.) who alter
  749. messages, insert and delete messages, etc. Cryptography is
  750. the means by which communications over insecure channels
  751. are protected.
  752.  
  753. *** chosen plaintext attack -- an attack where the
  754. cryptanalyst gets to choose the plaintext to be enciphered,
  755. e.g., when possession of an enciphering machine or algorithm
  756. is in the possession of the cryptanalyst.
  757.  
  758. *** cipher -- a secret form of writing, using substitution or
  759. transposition of characters or symbols.
  760.  
  761. *** ciphertext -- the plaintext after it has been encrypted.
  762.  
  763. *** code -- a restricted cryptosystem where words or
  764. letters of a message are replaced by other words chosen from
  765. a codebook. Not part of modern cryptology, but still useful.
  766.  
  767. *** coin flipping -- an important crypto primitive, or
  768. protocol, in which the equivalent of flipping a fair coin is
  769. possible. Implemented with blobs.
  770.  
  771. *** collusion -- wherein several participants cooperate to
  772. deduce the identity of a sender or receiver, or to break a
  773. cipher. Most cryptosystems are sensitive to some forms of
  774. collusion. Much of the work on implementing DC Nets, for
  775. example, involves ensuring that colluders cannot isolate
  776. message senders and thereby trace origins and destinations
  777. of mail.
  778.  
  779. *** computationally secure -- where a cipher cannot be
  780. broken with available computer resources, but in theory can
  781. be broken with enough computer resources. Contrast with
  782. unconditionally  secure.
  783.  
  784. *** countermeasure -- something you do to thwart an
  785. attacker.
  786.  
  787. *** credential -- facts or assertions about some entity. For
  788. example, credit ratings, passports, reputations, tax status,
  789. insurance records, etc.  Under the current system, these
  790. credentials are increasingly being cross-linked. Blind
  791. signatures may be used to create anonymous credentials.
  792.  
  793. *** credential clearinghouse  -- banks, credit agencies,
  794. insurance companies, police departments, etc., that correlate
  795. records and decide the status of records.
  796.  
  797. *** cryptanalysis -- methods for attacking and breaking
  798. ciphers and related cryptographic systems. Ciphers may be
  799. broken, traffic may be analyzed, and passwords may be
  800. cracked. Computers are of course essential.
  801.  
  802. *** crypto anarchy -- the economic and political system
  803. after the deployment of encryption, untraceable e-mail,
  804. digital pseudonyms, cryptographic voting, and digital cash. A
  805. pun on "crypto," meaning "hidden," and as when Gore Vidal
  806. called William F. Buckley a "crypto fascist."
  807.  
  808. *** cryptography -- another name for cryptology.
  809.  
  810. *** cryptology -- the science and study of writing, sending,
  811. receiving, and deciphering secret messages. Includes
  812. authentication, digital signatures, the hiding of messages
  813. (steganography), cryptanalysis, and several other fields.
  814.  
  815. *** cyberspace  -- the electronic domain, the Nets, and
  816. computer-generated spaces. Some say it is the "consensual
  817. reality" described in "Neuromancer." Others say it is the phone
  818. system. Others have work to do.
  819.  
  820. *** DC protocol, or DC-Net -- the dining cryptographers
  821. protocol. DC-Nets use multiple participants communicating
  822. with the DC protocol.
  823.  
  824. *** DES -- the Data Encryption Standard, proposed in
  825. 1977 by the National Bureau of Standards (now NIST), with
  826. assistance from the National Security Agency. Based on the
  827. "Lucifer" cipher developed by Horst Feistel at IBM, DES is a
  828. secret key cryptosystem that cycles 64-bit blocks of data
  829. through multiple permutations with a 56-bit key controlling
  830. the routing. "Diffusion" and "confusion" are combined to form
  831. a cipher that has not yet been cryptanalyzed (see "DES,
  832. Security of"). DES is in use for interbank transfers, as a
  833. cipher inside of several RSA-based systems, and is available
  834. for PCs.
  835.  
  836. *** DES, Security of  -- many have speculated that the NSA
  837. placed a trapdoor (or back door) in DES to allow it to read
  838. DES-encrypted messages. This has not been proved. It is
  839. known that the original Lucifer algorithm used a 128-bit key
  840. and that this key length was shortened to 64 bits (56 bits
  841. plus 8 parity bits), thus making exhaustive search much
  842. easier (so far as is known, brute-force search has not been
  843. done, though it should be feasible today). Shamir and Bihan
  844. have used a technique called "differential cryptanalysis" to
  845. reduce the exhaustive search needed for chosen plaintext
  846. attacks (but with no import for ordinary DES).
  847.  
  848. *** differential cryptanalysis -- the Shamir-Biham
  849. technique for cryptanalyzing DES. With a chosen plaintext
  850. attack, they've reduced the number of DES keys that must be
  851. tried from about 2^56 to about 2^47 or less. Note, however,
  852. that rarely can an attacker mount a chosen plaintext attack
  853. on DES systems.
  854.  
  855. *** digital cash, digital money -- Protocols for
  856. transferring value, monetary or otherwise, electronically.
  857. Digital cash usually refers to systems that are anonymous.
  858. Digital money systems can be used to implement any quantity
  859. that is conserved, such as points, mass, dollars, etc.  There
  860. are many variations of  digital money systems, ranging from
  861. VISA numbers to blinded signed digital coins.  A topic too
  862. large for a single glossary entry.
  863.  
  864. *** digital pseudonym -- basically, a "crypto identity." A
  865. way for individuals to set up accounts with various
  866. organizations without revealing more information than they
  867. wish. Users may have several digital pseudonyms, some used
  868. only once, some used over the course of many years. Ideally,
  869. the pseudonyms can be linked only at the will of the holder. In
  870. the simplest form, a public key can serve as a digital
  871. pseudonym and need not be linked to a physical identity.
  872.  
  873. *** digital signature --  Analogous to a written signature
  874. on a document. A modification to a message that only the
  875. signer can make but that everyone can recognize.  Can  be used
  876. legally to contract at a distance.
  877.  
  878. *** digital timestamping -- one function of a digital
  879. notary public, in which some message (a song, screenplay, lab
  880. notebook, contract, etc.) is stamped with a time that cannot
  881. (easily) be forged.
  882.  
  883. *** dining cryptographers protocol (aka DC protocol,
  884. DC nets) -- the untraceable message sending system
  885. invented by David Chaum. Named after the "dining
  886. philosophers" problem in computer science, participants form
  887. circuits and pass messages in such a way that the origin
  888. cannot be deduced, barring collusion. At the simplest level,
  889. two participants share a key between them. One of them
  890. sends some actual message by bitwise exclusive-ORing the
  891. message with the key, while the other one just sends the key
  892. itself. The actual message from this pair of participants is
  893. obtained by XORing the two outputs. However, since nobody
  894. but the pair knows the original key, the actual message
  895. cannot be traced to either one of the participants.
  896.  
  897. *** discrete logarithm problem -- given integers a, n,
  898. and x, find some integer m such that a^m mod n = x, if m
  899. exists. Modular exponentiation, the a^m mod n part, is
  900. straightforward (and special purpose chips are available), but
  901. the inverse problem is believed to be very hard, in general.
  902. Thus it is conjectured that modular exponentiation is a one-
  903. way function.
  904.  
  905. *** DSS, Digital Signature Standard -- the latest NIST
  906. (National Institute of Standards and Technology, successor to
  907. NBS) standard for digital signatures. Based on the El Gamal
  908. cipher, some consider it weak and poor substitute for RSA-
  909. based signature schemes.
  910.  
  911. *** eavesdropping, or passive wiretapping --
  912. intercepting messages without detection. Radio waves may be
  913. intercepted, phone lines may be tapped, and computers may
  914. have RF emissions detected. Even fiber optic lines can be
  915. tapped.
  916.  
  917. *** factoring -- Some large numbers are difficult to factor.
  918. It is conjectured that there are no feasible--i.e."easy," less
  919. than exponential in size of number-- factoring methods. It is
  920. also an open problem whether RSA may be broken more easily
  921. than by factoring the modulus (e.g., the public key might
  922. reveal information which simplifies the problem).
  923. Interestingly, though factoring is believed to be "hard", it is
  924. not known to be in the class of NP-hard problems. Professor
  925. Janek invented a factoring device, but he is believed to be
  926. fictional.
  927.  
  928. *** information-theoretic security -- "unbreakable"
  929. security, in which no amount of cryptanalysis can break a
  930. cipher or system. One time pads are an example (providing the
  931. pads are not lost nor stolen nor used more than once, of
  932. course). Same as unconditionally secure.
  933.  
  934. *** key -- a piece of information needed to encipher or
  935. decipher a message. Keys may be stolen, bought, lost, etc.,
  936. just as with physical keys.
  937.  
  938. *** key exchange, or key distribution -- the process of
  939. sharing a key with some other party, in the case of symmetric
  940. ciphers, or of distributing a  public key in an asymmetric
  941. cipher. A major issue is that the keys be exchanged reliably
  942. and without compromise. Diffie and Hellman devised one such
  943. scheme, based on the discrete logarithm problem.
  944.  
  945. *** known-plaintext attack -- a cryptanalysis of a cipher
  946. where plaintext-ciphertext pairs are known. This attack
  947. searches for an unknown key. Contrast with the chosen
  948. plaintext attack, where the cryptanalyst can also choose the
  949. plaintext to be enciphered.
  950.  
  951. *** mail, untraceable  -- a system for sending and
  952. receiving mail without traceability or observability.
  953. Receiving mail anonymously can be done with broadcast of the
  954. mail in encrypted form.  Only the intended recipient (whose
  955. identity, or true name, may be unknown to the sender) may
  956. able to decipher the message. Sending mail anonymously
  957. apparently requires mixes or use of the dining cryptographers
  958. (DC) protocol.
  959.  
  960. *** minimum disclosure proofs  -- another name for zero
  961. knowledge proofs, favored by Chaum.
  962.  
  963. *** mixes -- David Chaum's term for a box which performs
  964. the function of mixing, or decorrelating, incoming and
  965. outgoing electronic mail messages. The box also strips off
  966. the outer envelope (i.e., decrypts with its private key) and
  967. remails the message to the address on the inner envelope.
  968. Tamper-resistant modules may be used to prevent cheating
  969. and forced disclosure of the mapping between incoming and
  970. outgoing mail. A sequence of many remailings effectively
  971. makes tracing sending and receiving impossible. Contrast this
  972. with the software version, the DC protocol.
  973.  
  974. *** modular exponentiation  -- raising an integer to the
  975. power of another integer, modulo some integer. For integers
  976. a, n, and m, a^m mod n. For example, 5^3 mod 100 = 25. Modular
  977. exponentiation can be done fairly quickly with a sequence of
  978. bit shifts and adds, and special purpose chips have been
  979. designed. See also discrete logarithm.
  980.  
  981. *** National Security Agency (NSA)  -- the largest
  982. intelligence agency, responsible for making and breaking
  983. ciphers, for intercepting communications, and for ensuring
  984. the security of U.S. computers. Headquartered in Fort Meade,
  985. Maryland, with many listening posts around the world.  The
  986. NSA funds cryptographic research and advises other agencies
  987. about cryptographic matters. The NSA once obviously had the
  988. world's leading cryptologists, but this may no longer be the
  989. case.
  990.  
  991. *** negative credential -- a credential that you possess
  992. that you don't want any one else to know, for example, a
  993. bankruptcy filing.  A formal version of a negative reputation.
  994.  
  995. *** NP-complete -- a large class of difficult problems.
  996. "NP" stands for nondeterministic polynomial time, a class of
  997. problems thought in general not to have feasible algorithms
  998. for their solution.  A problem is "complete"  if  any other NP
  999. problem may be reduced to that problem.   Many important
  1000. combinatorial and algebraic problems are NP-complete: the
  1001. traveling salesman problem, the Hamiltonian cycle problem,
  1002. the word problem, and on and on.
  1003.  
  1004. *** oblivious transfer -- a cryptographic primitive that
  1005. involves the probabilistic transmission of bits. The sender
  1006. does not know if the bits were received.
  1007.  
  1008. *** one-time pad -- a string of randomly-selected bits or
  1009. symbols which is combined with a plaintext message to
  1010. produce the ciphertext. This combination may be shifting
  1011. letters some amount, bitwise exclusive-ORed, etc.). The
  1012. recipient, who also has a copy of the one time pad, can easily
  1013. recover the plaintext. Provided the pad is only used once and
  1014. then destroyed, and is not available to an eavesdropper, the
  1015. system is perfectly secure, i.e., it is information-
  1016. theoretically secure. Key distribution (the pad)  is obviously a
  1017. practical concern, but consider CD-ROM's.
  1018.  
  1019. *** one-way function -- a function which is easy to
  1020. compute in one direction but hard to find any inverse for, e.g.
  1021. modular exponentiation, where the inverse problem is known
  1022. as the discrete logarithm problem. Compare the special case
  1023. of trap door one-way functions.  An example of  a one-way
  1024. operation is multiplication: it is  easy to multiply two
  1025. prime numbers of 100 digits to produce a 200-digit number,
  1026. but  hard to factor that 200-digit number.
  1027.  
  1028. *** P ?=? NP  -- Certainly the most  important unsolved
  1029. problem in complexity theory. If P = NP, then cryptography as
  1030. we know it today does not exist.  If P = NP,  all NP problems
  1031. are "easy."
  1032.  
  1033. *** padding -- sending extra messages to confuse
  1034. eavesdroppers and to defeat traffic analysis.   Also adding
  1035. random bits to a message to be enciphered.
  1036.  
  1037. *** plaintext -- also called cleartext, the text that is to be
  1038. enciphered.
  1039.  
  1040. *** Pretty Good Privacy (PGP)  -- Phillip ZimmermanUs
  1041. implementation of RSA, recently upgraded to version 2.0,
  1042. with more robust components and several new features. RSA
  1043. Data Security has threatened PZ so he no longer works on it.
  1044. Version 2.0 was written by a consortium of non-U.S. hackers.
  1045.  
  1046. *** prime numbers -- integers with no factors other than
  1047. themselves and 1. The number of primes is unbounded.  About
  1048. 1% of the 100 decimal digit numbers are prime.  Since there
  1049. are about 10^70 particles in the universe, there are about
  1050. 10^23  100 digit primes for each and every particle in the
  1051. universe!
  1052.  
  1053. *** probabilistic encryption  -- a scheme by Goldwasser,
  1054. Micali, and Blum that allows multiple ciphertexts for the
  1055. same plaintext, i.e., any given plaintext may have many
  1056. ciphertexts if the ciphering is repeated. This protects against
  1057. certain types of known ciphertext attacks on RSA.
  1058.  
  1059. *** proofs of identity -- proving who you are, either your
  1060. true name, or your digital identity. Generally, possession of
  1061. the right key is sufficient proof (guard your key!). Some work
  1062. has been done on "is-a-person" credentialling agencies, using
  1063. the so-called Fiat-Shamir protocol...think of this as a way to
  1064. issue unforgeable digital passports. Physical proof of identity
  1065. may be done with biometric security methods. Zero knowledge
  1066. proofs of identity reveal nothing beyond the fact that the
  1067. identity is as claimed. This has obvious uses for computer
  1068. access, passwords, etc.
  1069.  
  1070. *** protocol -- a formal procedure for solving some
  1071. problem. Modern cryptology is mostly about the study of
  1072. protocols for many problems, such as coin-flipping, bit
  1073. commitment (blobs), zero knowledge proofs, dining
  1074. cryptographers, and so on.
  1075.  
  1076. *** public key -- the key distributed publicly to potential
  1077. message-senders. It may be published in a phonebook-like
  1078. directory or otherwise sent. A major concern is the validity
  1079. of this public key to guard against spoofing or impersonation.
  1080.  
  1081. *** public key cryptosystem -- the modern breakthrough
  1082. in cryptology, designed by Diffie and Hellman, with
  1083. contributions from several others. Uses trap door one-way
  1084. functions so that encryption may be done by anyone with
  1085. access to the "public key" but decryption may be done only by
  1086. the holder of the "private key." Encompasses public key
  1087. encryption, digital signatures, digital cash, and many other
  1088. protocols and applications.
  1089.  
  1090. *** public key encryption -- the use of modern
  1091. cryptologic methods to provided message security and
  1092. authentication. The RSA algorithm is the most widely used
  1093. form of public key encryption, although other systems exist.
  1094. A public key may be freely published, e.g., in phonebook-like
  1095. directories, while the corresponding private key is closely
  1096. guarded.
  1097.  
  1098. *** public key patents  -- M.I.T. and Stanford, due to the
  1099. work of Rivest, Shamir, Adleman, Diffie, Hellman, and Merkle,
  1100. formed Public Key Partners to license the various public key,
  1101. digital signature, and RSA patents. These patents, granted in
  1102. the early 1980s, expire in the between 1998 and 2002. PKP
  1103. has licensed RSA Data Security Inc., of Redwood City, CA,
  1104. which handles the sales, etc.
  1105.  
  1106. *** quantum cryptography -- a system based on quantum-
  1107. mechanical principles. Eavesdroppers alter the quantum state
  1108. of the system and so are detected. Developed by Brassard and
  1109. Bennett, only small laboratory demonstrations have been
  1110. made.
  1111.  
  1112. *** reputations -- the trail of positive and negative
  1113. associations and judgments that some entity accrues. Credit
  1114. ratings, academic credentials, and trustworthiness are all
  1115. examples. A digital pseudonym will accrue these reputation
  1116. credentials based on actions, opinions of others, etc. In
  1117. crypto anarchy, reputations and agoric systems will be of
  1118. paramount importance. There are many fascinating issues of
  1119. how reputation-based systems work, how credentials can be
  1120. bought and sold, and so forth.
  1121.  
  1122. *** RSA -- the main public key encryption algorithm,
  1123. developed by Ron Rivest, Adi Shamir, and Kenneth Adleman. It
  1124. exploits the difficulty of factoring large numbers to create a
  1125. private key and public key. First invented in 1978, it remains
  1126. the core of modern public key systems. It is usually much
  1127. slower than DES, but special-purpose modular exponentiation
  1128. chips will likely speed it up. A popular scheme for speed is to
  1129. use RSA to transmit session keys and then a high-speed
  1130. cipher like DES for the actual message text.
  1131. *** Description -- Let p and q be large primes, typically
  1132. with more than 100 digits. Let n = pq and find some e such that
  1133. e is relatively prime to (p - 1)(q - 1). The set of numbers p, q,
  1134. and e is the private key for RSA. The set of numbers n and e
  1135. forms the public key (recall that knowing n is not sufficient to
  1136. easily find p and q...the factoring problem).  A message M is
  1137. encrypted by computing M^e mod n. The owner of the private key
  1138. can decrypt the encrypted message by exploiting number theory
  1139. results, as follows. An integer d is computed such that ed = 1
  1140. (mod (p - 1)(q - 1)).  Euler proved a theorem that M^(ed) = M
  1141. mod n and so M^(ed) mod n = M. This means that in some sense
  1142. the integers e and d are "inverses" of each other. [If this
  1143. is unclear, please see one of the many texts and articles on
  1144. public key encryption.]
  1145.  
  1146. *** secret key cryptosystem -- A system which uses the
  1147. same key to encrypt and decrypt traffic at each end of a
  1148. communication link.  Also called a symmetric or one-key
  1149. system.  Contrast with public key cryptosystem.
  1150.  
  1151. *** smart cards -- a computer chip embedded in credit
  1152. card.  They can hold cash, credentials, cryptographic keys,
  1153. etc. Usually these are built with some degree of tamper-
  1154. resistance. Smart cards may perform part of a crypto
  1155. transaction, or all of it. Performing part of it may mean
  1156. checking the computations of a more powerful computer, e.g.,
  1157. one in an ATM.
  1158.  
  1159. *** spoofing, or masquerading -- posing as another user.
  1160. Used for stealing passwords, modifying files, and  stealing
  1161. cash. Digital signatures and other authentication methods are
  1162. useful to prevent this. Public keys must be validated and
  1163. protected to ensure that others don't substitute their own
  1164. public keys which users may then unwittingly use.
  1165.  
  1166. *** steganography -- a part of cryptology dealing with
  1167. hiding messages and obscuring who is sending and receiving
  1168. messages. Message traffic is often padded to reduce the
  1169. signals that would otherwise come from a sudden beginning
  1170. of messages.
  1171.  
  1172. *** symmetric cipher -- same as private key
  1173. cryptosystem.
  1174.  
  1175. *** tamper-responding modules, tamper-resistant
  1176. modules (TRMs) -- sealed boxes or modules which are hard
  1177. to open, requiring extensive probing and usually leaving ample
  1178. evidence that the tampering has occurred. Various protective
  1179. techniques are used, such as special metal or oxide layers on
  1180. chips, armored coatings, embedded optical fibers, and other
  1181. measures to thwart analysis. Popularly called "tamper-proof
  1182. boxes." Uses include: smart cards, nuclear weapon initiators,
  1183. cryptographic key holders, ATMs, etc.
  1184.  
  1185. *** tampering, or active wiretapping -- interfering with
  1186. messages and possibly modifying them. This may compromise
  1187. data security, help to break ciphers, etc.  See also spoofing.
  1188.  
  1189. *** token -- some representation, such as ID cards, subway
  1190. tokens, money, etc., that indicates possession of some
  1191. property or value.
  1192.  
  1193. *** traffic analysis -- determining who is sending or
  1194. receiving messages by analyzing packets, frequency of
  1195. packets, etc. A part of steganography. Usually handled with
  1196. traffic padding.
  1197.  
  1198. *** transmission rules -- the protocols for determining
  1199. who can send messages in a DC protocol, and when. These
  1200. rules are needed to prevent collision and deliberate jamming
  1201. of the channels.
  1202.  
  1203. *** trap messages -- dummy messages in DC Nets which
  1204. are used to catch jammers and disrupters. The messages
  1205. contain no private information and are published in a blob
  1206. beforehand so that the trap message can later be opened to
  1207. reveal the disrupter. (There are many strategies to explore
  1208. here.)
  1209.  
  1210. *** trap-door -- In cryptography, a piece of secret
  1211. information that allows the holder of a private key to invert a
  1212. normally hard to invert function.
  1213.  
  1214. *** trap-door one way functions -- functions which are
  1215. easy to compute in both the forward and reverse direction but
  1216. for which the disclosure of an algorithm to compute the
  1217. function in the forward direction does not provide
  1218. information on how to compute the function in the reverse
  1219. direction. More simply put, trap-door one way functions are
  1220. one way for all but the holder of the secret information. The
  1221. RSA algorithm is the best-known example of such a function.
  1222.  
  1223. *** unconditional security -- same as information-
  1224. theoretic security, that is, unbreakable except by loss or
  1225. theft of the key.
  1226.  
  1227. *** unconditionally  secure -- where no amount of
  1228. intercepted ciphertext is enough to allow the cipher to be
  1229. broken, as with the use of a one-time pad cipher. Contrast
  1230. with computationally secure.
  1231.  
  1232. *** voting, cryptographic -- Various schemes have been
  1233. devised for anonymous, untraceable voting. Voting schemes
  1234. should have several properties: privacy of the vote, security
  1235. of the vote (no multiple votes), robustness against disruption
  1236. by jammers or disrupters, verifiability (voter has confidence
  1237. in the results), and efficiency.
  1238.  
  1239. *** zero knowledge proofs -- proofs in which no
  1240. knowledge of the actual proof is conveyed. Peggy the Prover
  1241. demonstrates to Sid the Skeptic that she is indeed in
  1242. possession of some piece of knowledge without actually
  1243. revealing any of that knowledge. This is useful for access to
  1244. computers, because eavesdroppers or dishonest sysops cannot
  1245. steal the knowledge given. Also called minimum disclosure
  1246. proofs. Useful for proving possession of some property, or
  1247. credential, such as age or voting status, without revealing
  1248. personal information.
  1249.  
  1250. --
  1251. ..........................................................................
  1252. Timothy C. May         | Crypto Anarchy: encryption, digital money,
  1253. tcmay@netcom.com       | anonymous networks, digital pseudonyms, zero
  1254. 408-688-5409           | knowledge, reputations, information markets,
  1255. W.A.S.T.E.: Aptos, CA  | black markets, collapse of governments.
  1256. Higher Power: 2^756839 | PGP Public Key: by arrangement.
  1257.  
  1258.  
  1259.  
  1260. From owner-cypherpunks@toad.com Wed Aug 11 15:53:21 1993
  1261.  id <AA11099>; Wed, 11 Aug 1993 15:53:19 -0600
  1262. Received: from toad.com by relay2.UU.NET with SMTP
  1263.  (5.61/UUNET-internet-primary) id AA19178; Wed, 11 Aug 93 17:45:05 -0400
  1264. Received: by toad.com id AA14598; Wed, 11 Aug 93 14:32:06 PDT
  1265. Received: by toad.com id AA14592; Wed, 11 Aug 93 14:31:45 PDT
  1266. Return-Path: <washofc!dsobel@uu5.psi.com>
  1267. Received: from uu5.psi.com ([38.145.226.3]) by toad.com id AA14588; Wed, 11 Aug
  1268. Received: from washofc.UUCP by uu5.psi.com (5.65b/4.0.071791-PSI/PSINet) via UU
  1269.         id AA09856 for ; Wed, 11 Aug 93 14:13:17 -0400
  1270. Received: from OFFICE (QM 2.5.1) by washofc.cpsr.org (UMCP\QM 2.0)
  1271.  id AA04658; Wed, 11 Aug 1993 14:17:12 EST
  1272. Message-Id: <00541.2827923432.4658@washofc.cpsr.org>
  1273. Organization: CPSR Washington Office
  1274. X-Umcp-To: Cypherpunks
  1275. From: David Sobel <dsobel@washofc.cpsr.org>
  1276. To: Cypherpunks <cypherpunks@toad.com>
  1277. Date: Wed, 11 Aug 1993 13:59:53 EST
  1278. Subject: Clipper trapdoor?
  1279. Status: OR
  1280.  
  1281.   Clipper trapdoor?
  1282.  
  1283. Peter Wayner <pcw@access.digex.net> writes:
  1284.  
  1285. >My general impression is that the system is secure. Many people
  1286. >have played paranoid and expressed concerns that the classified
  1287. >algorithm might be hiding a trapdoor. It became clear to me that
  1288. >these concerns were really silly. There is a built-in trapdoor
  1289. >to be used by the government when it is "legal authorized" to
  1290. >intercept messages. The NSA has rarely had trouble in the past
  1291. >exercising either its explicitly granted legal authority  or
  1292. >its implied authority. The phrase "national security" is a
  1293. >powerful pass phrase around Washington and there is no reason
  1294. >for me to believe that the NSA wouldn't get all of the access
  1295. >to the escrow database that it needs to do its job. Building in
  1296. >a backdoor would only leave a weakness for an opponent to exploit
  1297. >and that is something that is almost as sacrilidgeous at the NSA
  1298. >as just putting the classified secrets in a Fed Ex package to
  1299. >Saddam Hussein.
  1300.  
  1301. This raises an interesting question and I draw a totally different
  1302. conclusion.  If, as we have been told, the only way for an agency to
  1303. obtain the escrow keys is to present a court order, than NSA needs
  1304. to obtain such an order to decrypt *any* communication it intercepts.
  1305.  
  1306. I don't really understand what Peter means when he says that "NSA has
  1307. rarely had trouble in the past exercising either its explicitly granted
  1308. legal authority  or its implied authority. The phrase 'national security'
  1309. is a powerful pass phrase around Washington and there is no reason
  1310. for me to believe that the NSA wouldn't get all of the access
  1311. to the escrow database that it needs to do its job."
  1312.  
  1313. Does this mean NSA would, in fact, obtain a warrant in order to "get all
  1314. of the access to the escrow database that it needs to do its job"?  If so,
  1315. this would represent an unprecedented change in the way NSA does "its
  1316. job."  NSA has no domestic law enforcement authority, so it would
  1317. obviously never be in a position to obtain a law enforcement wiretap
  1318. warrant under Title III.  The only possible way for NSA to obtain a warrant
  1319. would be under the Foreign Intelligence Surveillance Act (FISA).  But the
  1320. Foreign Intelligence Surveillance Court, which issues warrants under FISA,
  1321. has ruled that FISA's provisions
  1322.  
  1323.    limit the authority to conduct electronic surveillances to the U.S.
  1324.    in a geographic sense as defined in sec. 101(i).  The drafters left
  1325.    to another day the matter of "broadening this legislation to apply
  1326.    overseas ... because the problems and circumstances of overseas
  1327.    surveillance demand separate treatment."
  1328.  
  1329. In the Matter of the Application of the United States for an Order
  1330. Authorizing
  1331. the Physical Search of Nonresidential Premises and Personal Property (1981),
  1332. footnote 1 (citations omitted).
  1333.  
  1334. Consider the following hypothetical: Iraqi agents smuggle Clipper phones
  1335. out of the U.S.  Saddam Hussein uses them to communicate with his military
  1336. commander in Basra.  NSA intercepts the communications.  Question:  How
  1337. does NSA decrypt the messages?
  1338.  
  1339. Note that neither Title III (law enforcement) nor FISA (U.S.-based) apply
  1340. to this situation, so we have to assume that NSA will not have a court order
  1341. to obtain the escrow keys.  I have to conclude that NSA would not be putting
  1342. this technology out into the world *unless* it did, in fact, have some way
  1343. to
  1344. decrypt messages *without* access to the escrow keys.
  1345.  
  1346. Am I missing something?
  1347.  
  1348.  
  1349. David Sobel
  1350. CPSR Legal Counsel
  1351.  
  1352.  
  1353.  
  1354.  
  1355. Article 18507 of sci.crypt:
  1356. Path: lynx.unm.edu!fmsrl7!destroyer!sol.ctr.columbia.edu!math.ohio-state.edu!da
  1357. From: denning@guvax.acc.georgetown.edu
  1358. Newsgroups: sci.crypt
  1359. Subject: SKIPJACK Review, Interim Report
  1360. Message-ID: <1993Aug1.220927.4510@guvax.acc.georgetown.edu>
  1361. Date: 1 Aug 93 22:09:27 -0400
  1362. Distribution: world
  1363. Organization: Georgetown University
  1364. Lines: 369
  1365.  
  1366.                             SKIPJACK Review
  1367.  
  1368.                              Interim Report
  1369.  
  1370.                         The SKIPJACK Algorithm
  1371.  
  1372.  
  1373.            Ernest F. Brickell, Sandia National Laboratories
  1374.                Dorothy E. Denning, Georgetown University
  1375.             Stephen T. Kent, BBN Communications Corporation
  1376.                           David P. Maher, AT&T
  1377.                   Walter Tuchman, Amperif Corporation
  1378.  
  1379.                               July 28, 1993
  1380.  
  1381.                             (copyright 1993)
  1382.  
  1383.  
  1384. Executive Summary
  1385.  
  1386. The objective of the SKIPJACK review was to provide a mechanism whereby
  1387. persons outside the government could evaluate the strength of the
  1388. classified encryption algorithm used in the escrowed encryption devices
  1389. and publicly report their findings.  Because SKIPJACK is but one
  1390. component of a large, complex system, and because the security of
  1391. communications encrypted with SKIPJACK depends on the security of the
  1392. system as a whole, the review was extended to encompass other
  1393. components of the system.  The purpose of this Interim Report is to
  1394. report on our evaluation of the SKIPJACK algorithm.  A later Final
  1395. Report will address the broader system issues.
  1396.  
  1397. The results of our evaluation of the SKIPJACK algorithm are as
  1398. follows:
  1399.  
  1400.   1. Under an assumption that the cost of processing power is halved
  1401.      every eighteen months, it will be 36 years before the cost of
  1402.      breaking SKIPJACK by exhaustive search will be equal to the cost
  1403.      of breaking DES today.  Thus, there is no significant risk that
  1404.      SKIPJACK will be broken by exhaustive search in the next 30-40
  1405.      years.
  1406.  
  1407.   2. There is no significant risk that SKIPJACK can be broken through a
  1408.      shortcut method of attack.
  1409.  
  1410.   3. While the internal structure of SKIPJACK must be classified in
  1411.      order to protect law enforcement and national security objectives,
  1412.      the strength of SKIPJACK against a cryptanalytic attack does not
  1413.      depend on the secrecy of the algorithm.
  1414.  
  1415.  
  1416.  
  1417. 1.  Background
  1418.  
  1419. On April 16, the President announced a new technology initiative aimed
  1420. at providing a high level of security for sensitive, unclassified
  1421. communications, while enabling lawfully authorized intercepts of
  1422. telecommunications by law enforcement officials for criminal
  1423. investigations.  The initiative includes several components:
  1424.  
  1425.     A classified encryption/decryption algorithm called "SKIPJACK."
  1426.  
  1427.     Tamper-resistant cryptographic devices (e.g., electronic chips),
  1428.     each of which contains SKIPJACK, classified control software, a
  1429.     device identification number, a family key used by law enforcement,
  1430.     and a device unique key that unlocks the session key used to
  1431.     encrypt a particular communication.
  1432.  
  1433.     A secure facility for generating device unique keys and programming
  1434.     the devices with the classified algorithms, identifiers, and keys.
  1435.  
  1436.     Two escrow agents that each hold a component of every device unique
  1437.     key.  When combined, those two components form the device unique
  1438.     key.
  1439.  
  1440.     A law enforcement access field (LEAF), which enables an authorized
  1441.     law enforcement official to recover the session key.  The LEAF is
  1442.     created by a device at the start of an encrypted communication and
  1443.     contains the session key encrypted under the device unique key
  1444.     together with the device identifier, all encrypted under the family
  1445.     key.
  1446.  
  1447.     LEAF decoders that allow an authorized law enforcement official to
  1448.     extract the device identifier and encrypted session key from an
  1449.     intercepted LEAF.  The identifier is then sent to the escrow
  1450.     agents, who return the components of the corresponding device
  1451.     unique key.  Once obtained, the components are used to reconstruct
  1452.     the device unique key, which is then used to decrypt the session
  1453.     key.
  1454.  
  1455. This report reviews the security provided by the first component,
  1456. namely the SKIPJACK algorithm.  The review was performed pursuant to
  1457. the President's direction that "respected experts from outside the
  1458. government will be offered access to the confidential details of the
  1459. algorithm to assess its capabilities and publicly report their
  1460. finding."  The Acting Director of the National Institute of Standards
  1461. and Technology (NIST) sent letters of invitation to potential
  1462. reviewers.  The authors of this report accepted that invitation.
  1463.  
  1464. We attended an initial meeting at the Institute for Defense Analyses
  1465. Supercomputing Research Center (SRC) from June 21-23.  At that meeting,
  1466. the designer of SKIPJACK provided a complete, detailed description of
  1467. the algorithm, the rationale for each feature, and the history of the
  1468. design.  The head of the NSA evaluation team described the evaluation
  1469. process and its results.  Other NSA staff briefed us on the LEAF
  1470. structure and protocols for use, generation of device keys, protection
  1471. of the devices against reverse engineering, and NSA's history in the
  1472. design and evaluation of encryption methods contained in SKIPJACK.
  1473. Additional NSA and NIST staff were present at the meeting to answer our
  1474. questions and provide assistance.  All staff members were forthcoming
  1475. in providing us with requested information.
  1476.  
  1477. At the June meeting, we agreed to integrate our individual evaluations
  1478. into this joint report.  We also agreed to reconvene at SRC from July
  1479. 19-21 for further discussions and to complete a draft of the report.
  1480. In the interim, we undertook independent tasks according to our
  1481. individual interests and availability.  Ernest Brickell specified a
  1482. suite of tests for evaluating SKIPJACK.  Dorothy Denning worked at NSA
  1483. on the refinement and execution of these and other tests that took into
  1484. account suggestions solicited from Professor Martin Hellman at Stanford
  1485. University.  NSA staff assisted with the programming and execution of
  1486. these tests.  Denning also analyzed the structure of SKIPJACK and its
  1487. susceptibility to differential cryptanalysis.  Stephen Kent visited NSA
  1488. to explore in more detail how SKIPJACK compared with NSA encryption
  1489. algorithms that he already knew and that were used to protect
  1490. classified data.  David Maher developed a risk assessment approach
  1491. while continuing his ongoing work on the use of the encryption chip in
  1492. the AT&T Telephone Security Device.  Walter Tuchman investigated the
  1493. anti-reverse engineering properties of the chips.
  1494.  
  1495. We investigated more than just SKIPJACK because the security of
  1496. communications encrypted with the escrowed encryption technology
  1497. depends on the security provided by all the components of the
  1498. initiative, including protection of the keys stored on the devices,
  1499. protection of the key components stored with the escrow agents, the
  1500. security provided by the LEAF and LEAF decoder, protection of keys
  1501. after they have been transmitted to law enforcement under court order,
  1502. and the resistance of the devices to reverse engineering.  In addition,
  1503. the success of the technology initiative depends on factors besides
  1504. security, for example, performance of the chips.  Because some
  1505. components of the escrowed encryption system, particularly the key
  1506. escrow system, are still under design, we decided to issue this Interim
  1507. Report on the security of the SKIPJACK algorithm and to defer our Final
  1508. Report until we could complete our evaluation of the system as a
  1509. whole.
  1510.  
  1511.  
  1512. 2.  Overview of the SKIPJACK Algorithm
  1513.  
  1514. SKIPJACK is a 64-bit "electronic codebook" algorithm that transforms a
  1515. 64-bit input block into a 64-bit output block.  The transformation is
  1516. parameterized by an 80-bit key, and involves performing 32 steps or
  1517. iterations of a complex, nonlinear function.  The algorithm can be used
  1518. in any one of the four operating modes defined in FIPS 81 for use with
  1519. the Data Encryption Standard (DES).
  1520.  
  1521. The SKIPJACK algorithm was developed by NSA and is classified SECRET.
  1522. It is representative of a family of encryption algorithms developed in
  1523. 1980 as part of the NSA suite of "Type I" algorithms, suitable for
  1524. protecting all levels of classified data.  The specific algorithm,
  1525. SKIPJACK, is intended to be used with sensitive but unclassified
  1526. information.
  1527.  
  1528. The strength of any encryption algorithm depends on its ability to
  1529. withstand an attack aimed at determining either the key or the
  1530. unencrypted ("plaintext") communications.  There are basically two
  1531. types of attack, brute-force and shortcut.
  1532.  
  1533.  
  1534. 3.  Susceptibility to Brute Force Attack by Exhaustive Search
  1535.  
  1536. In a brute-force attack (also called "exhaustive search"), the
  1537. adversary essentially tries all possible keys until one is found that
  1538. decrypts the intercepted communications into a known or meaningful
  1539. plaintext message.  The resources required to perform an exhaustive
  1540. search depend on the length of the keys, since the number of possible
  1541. keys is directly related to key length.  In particular, a key of length
  1542. N bits has 2^N possibilities.  SKIPJACK uses 80-bit keys, which means
  1543. there are 2^80 (approximately 10^24) or more than 1 trillion trillion
  1544. possible keys.
  1545.  
  1546. An implementation of  SKIPJACK optimized for a single processor on the
  1547. 8-processor Cray YMP performs about 89,000 encryptions per second.  At
  1548. that rate, it would take more than 400 billion years to try all keys.
  1549. Assuming the use of all 8 processors and aggressive vectorization, the
  1550. time would be reduced to about a billion years.
  1551.  
  1552. A more speculative attack using a future, hypothetical, massively
  1553. parallel machine with 100,000 RISC processors, each of which was
  1554. capable of 100,000 encryptions per second, would still take about 4
  1555. million years.  The cost of such a machine might be on the order of $50
  1556. million.  In an even more speculative attack, a special purpose machine
  1557. might be built using 1.2 billion $1 chips with a 1 GHz clock.  If the
  1558. algorithm could be pipelined so that one encryption step were performed
  1559. per clock cycle, then the $1.2 billion machine could exhaust the key
  1560. space in 1 year.
  1561.  
  1562. Another way of looking at the problem is by comparing a brute force
  1563. attack on SKIPJACK with one on DES, which uses 56-bit keys.  Given that
  1564. no one has demonstrated a capability for breaking DES, DES offers a
  1565. reasonable benchmark.  Since SKIPJACK keys are 24 bits longer than DES
  1566. keys, there are 2^24 times more possibilities.  Assuming that the cost
  1567. of processing power is halved every eighteen months, then it will not
  1568. be for another 24 * 1.5 = 36 years before the cost of breaking
  1569. SKIPJACK is equal to the cost of breaking DES today.  Given the lack of
  1570. demonstrated capability for breaking DES, and the expectation that the
  1571. situation will continue for at least several more years, one can
  1572. reasonably expect that SKIPJACK will not be broken within the next
  1573. 30-40 years.
  1574.  
  1575. Conclusion 1:   Under an assumption that the cost of processing power
  1576. is halved every eighteen months, it will be 36 years before the cost of
  1577. breaking SKIPJACK by exhaustive search will be equal to the cost of
  1578. breaking DES today.  Thus, there is no significant risk that SKIPJACK
  1579. will be broken by exhaustive search in the next 30-40 years.
  1580.  
  1581. 4.  Susceptibility to Shortcut Attacks
  1582.  
  1583. In a shortcut attack, the adversary exploits some property of the
  1584. encryption algorithm that enables the key or plaintext to be determined
  1585. in much less time than by exhaustive search.  For example, the RSA
  1586. public-key encryption method is attacked by factoring a public value
  1587. that is the product of two secret primes into its primes.
  1588.  
  1589. Most shortcut attacks use probabilistic or statistical methods that
  1590. exploit a structural weakness, unintentional or intentional (i.e., a
  1591. "trapdoor"), in the encryption algorithm.  In order to determine
  1592. whether such attacks are possible, it is necessary to thoroughly
  1593. examine the structure of the algorithm and its statistical properties.
  1594. In the time available for this review, it was not feasible to conduct
  1595. an evaluation on the scale that NSA has conducted or that has been
  1596. conducted on the DES.  Such review would require many man-years of
  1597. effort over a considerable time interval.  Instead, we concentrated on
  1598. reviewing NSA's design and evaluation process.  In addition, we
  1599. conducted several of our own tests.
  1600.  
  1601. 4.1  NSA's Design and Evaluation Process
  1602.  
  1603. SKIPJACK was designed using building blocks and techniques that date
  1604. back more than forty years.  Many of the techniques are related to work
  1605. that was evaluated by some of the world's most accomplished and famous
  1606. experts in combinatorics and abstract algebra.  SKIPJACK's more
  1607. immediate heritage dates to around 1980, and its initial design to
  1608. 1987.
  1609.  
  1610. SKIPJACK was designed to be evaluatable, and the design and evaluation
  1611. approach was the same used with algorithms that protect the country's
  1612. most sensitive classified information.  The specific structures
  1613. included in SKIPJACK have a long evaluation history, and the
  1614. cryptographic properties of those structures had many prior years of
  1615. intense study before the formal process began in 1987.  Thus, an
  1616. arsenal of tools and data was available.  This arsenal was used by
  1617. dozens of adversarial evaluators whose job was to break SKIPJACK.  Many
  1618. spent at least a full year working on the algorithm.  Besides highly
  1619. experienced evaluators, SKIPJACK was subjected to cryptanalysis by less
  1620. experienced evaluators who were untainted by past approaches.  All
  1621. known methods of attacks were explored, including differential
  1622. cryptanalysis.  The goal was a design that did not allow a shortcut
  1623. attack.
  1624.  
  1625. The design underwent a sequence of iterations based on feedback from
  1626. the evaluation process.  These iterations eliminated properties which,
  1627. even though they might not allow successful attack, were related to
  1628. properties that could be indicative of vulnerabilities.  The head of
  1629. the NSA evaluation team confidently concluded "I believe that SKIPJACK
  1630. can only be broken by brute force   there is no better way."
  1631.  
  1632. In summary, SKIPJACK is based on some of NSA's best technology.
  1633. Considerable care went into its design and evaluation in accordance
  1634. with the care given to algorithms that protect classified data.
  1635.  
  1636. 4.2  Independent Analysis and Testing
  1637.  
  1638. Our own analysis and testing increased our confidence in the strength
  1639. of SKIPJACK and its resistance to attack.
  1640.  
  1641. 4.2.1  Randomness and Correlation Tests
  1642.  
  1643. A strong encryption algorithm will behave like a random function of the
  1644. key and plaintext so that it is impossible to determine any of the key
  1645. bits or plaintext bits from the ciphertext bits (except by exhaustive
  1646. search).  We ran two sets of tests aimed at determining whether
  1647. SKIPJACK is a good pseudo random number generator.  These tests were
  1648. run on a Cray YMP at NSA.  The results showed that SKIPJACK behaves
  1649. like a random function and that ciphertext bits are not correlated with
  1650. either key bits or plaintext bits.  Appendix A gives more details.
  1651.  
  1652. 4.2.2  Differential Cryptanalysis
  1653.  
  1654. Differential cryptanalysis is a powerful method of attack that exploits
  1655. structural properties in an encryption algorithm.  The method involves
  1656. analyzing the structure of the algorithm in order to determine the
  1657. effect of particular differences in plaintext pairs on the differences
  1658. of their corresponding ciphertext pairs, where the differences are
  1659. represented by the exclusive-or of the pair.  If it is possible to
  1660. exploit these differential effects in order to determine a key in less
  1661. time than with exhaustive search, an encryption algorithm is said to be
  1662. susceptible to differential cryptanalysis.  However, an actual attack
  1663. using differential cryptanalysis may require substantially more chosen
  1664. plaintext than can be practically acquired.
  1665.  
  1666. We examined the internal structure of SKIPJACK to determine its
  1667. susceptibility to differential cryptanalysis.  We concluded it was not
  1668. possible to perform an attack based on differential cryptanalysis in
  1669. less time than with exhaustive search.
  1670.  
  1671. 4.2.3  Weak Key Test
  1672.  
  1673. Some algorithms have "weak keys" that might permit a shortcut
  1674. solution.  DES has a few weak keys, which follow from a pattern of
  1675. symmetry in the algorithm.  We saw no pattern of symmetry in the
  1676. SKIPJACK algorithm which could lead to weak keys.  We also
  1677. experimentally tested the all "0" key (all 80 bits are "0") and the all
  1678. "1" key to see if they were weak and found they were not.
  1679.  
  1680. 4.2.4  Symmetry Under Complementation Test
  1681.  
  1682. The DES satisfies the property that for a given plaintext-ciphertext
  1683. pair and associated key, encryption of the one's complement of the
  1684. plaintext with the one's complement of the key yields the one's
  1685. complement of the ciphertext.  This "complementation property" shortens
  1686. an attack by exhaustive search by a factor of two since half the keys
  1687. can be tested by computing complements in lieu of performing a more
  1688. costly encryption.  We tested SKIPJACK for this property and found that
  1689. it did not hold.
  1690.  
  1691. 4.2.5  Comparison with Classified Algorithms
  1692.  
  1693. We compared the structure of SKIPJACK to that of NSA Type I algorithms
  1694. used in current and near-future devices designed to protect classified
  1695. data.  This analysis was conducted with the close assistance of the
  1696. cryptographer who developed SKIPJACK and included an in-depth
  1697. discussion of design rationale for all of the algorithms involved.
  1698. Based on this comparative, structural analysis of SKIPJACK against
  1699. these other algorithms, and a detailed discussion of the similarities
  1700. and differences between these algorithms, our confidence in the basic
  1701. soundness of SKIPJACK was further increased.
  1702.  
  1703. Conclusion 2:  There is no significant risk that SKIPJACK can be broken
  1704. through a shortcut method of attack.
  1705.  
  1706.  
  1707. 5.   Secrecy of the Algorithm
  1708.  
  1709. The SKIPJACK algorithm is sensitive for several reasons.  Disclosure of
  1710. the algorithm would permit the construction of devices that fail to
  1711. properly implement the LEAF, while still interoperating with legitimate
  1712. SKIPJACK devices.  Such devices would provide high quality
  1713. cryptographic security without preserving the law enforcement access
  1714. capability that distinguishes this cryptographic initiative.
  1715. Additionally, the SKIPJACK algorithm is classified SECRET   NOT
  1716. RELEASABLE TO FOREIGN NATIONALS.  This classification reflects the high
  1717. quality of the algorithm, i.e., it incorporates design techniques that
  1718. are representative of algorithms used to protect classified
  1719. information.  Disclosure of the algorithm would permit analysis that
  1720. could result in discovery of these classified design techniques, and
  1721. this would be detrimental to national security.
  1722.  
  1723. However, while full exposure of the internal details of SKIPJACK would
  1724. jeopardize law enforcement and national security objectives, it would
  1725. not jeopardize the security of encrypted communications.  This is
  1726. because a shortcut attack is not feasible even with full knowledge of
  1727. the algorithm.  Indeed, our analysis of the susceptibility of SKIPJACK
  1728. to a brute force or shortcut attack was based on the assumption that
  1729. the algorithm was known.
  1730.  
  1731. Conclusion 3:  While the internal structure of SKIPJACK must be
  1732. classified in order to protect law enforcement and national security
  1733. objectives, the strength of SKIPJACK against a cryptanalytic attack
  1734. does not depend on the secrecy of the algorithm.
  1735.  
  1736.  
  1737.  
  1738. Article 18517 of sci.crypt:
  1739. Path: lynx.unm.edu!fmsrl7!destroyer!gatech!concert!rutgers!att-out!cbnewsh!cbne
  1740. From: wcs@anchor.ho.att.com (Bill Stewart +1-908-949-0705)
  1741. Newsgroups: sci.crypt
  1742. Subject: Re: SKIPJACK Review, Interim Report
  1743. Message-ID: <WCS.93Aug2043053@rainier.ATT.COM>
  1744. Date: 2 Aug 93 09:30:53 GMT
  1745. References: <1993Aug1.220927.4510@guvax.acc.georgetown.edu>
  1746.  <23i6hm$2ov@charm.magnus.acs.ohio-state.edu>
  1747. Sender: news@cbnewsh.cb.att.com (NetNews Administrator)
  1748. Organization: Electronic Birdwatching Society
  1749. Lines: 57
  1750. In-Reply-To: jebright@magnus.acs.ohio-state.edu's message of 2 Aug 1993 04:52:0
  1751. Nntp-Posting-Host: rainier.ho.att.com
  1752.  
  1753. Thanks to Dr. Denning for posting the interim report.  On a brief read-through,
  1754. I haven't got much substantive to say yet, so I'll depart from my
  1755. normal procedures and not say much :-)  Three concerns, though:
  1756. - While it's good that the whole system is being evaluated and not
  1757.  just Skipjack, I'm concerned about the propaganda value of
  1758.  releasing a report that says "the committee says it's just fine",
  1759.  while will presumably be abused in attempts to railroad
  1760.  standards committees into specifying Clipper.
  1761. - While the analysis looked at the design techniques for SkipJack
  1762.  and other classified algorithms, it did *not* address the issue of
  1763.  why, if SkipJack is so strong, it's only approved for unclassfied
  1764.  material, while the other algorithms can be used for classified.
  1765.  Is it weaker in some way?  Key length alone doesn't count...
  1766. - Key length adequacy - DES can be brute-forced now, at substantial expense;
  1767.  two different designs have been published for ~$30M, 1-day search.
  1768.  The report makes a big deal about how 24 bits longer key means
  1769.  about 36 years longer life if computer power keeps doubling every
  1770.  1.5 years, though it's speculative how long that will continue,
  1771.  and makes a big deal about how 80-bit keys are unsearchable now.
  1772.  An 80-bit key is still vulnerable in most of our lifetimes;
  1773.  a 128-bit key really is not.
  1774.  
  1775. In article <23i6hm$2ov@charm.magnus.acs.ohio-state.edu> jebright@magnus.acs.ohi
  1776.    >Additionally, the SKIPJACK algorithm is classified SECRET   NOT
  1777.    >RELEASABLE TO FOREIGN NATIONALS.  This classification reflects the high
  1778.    >quality of the algorithm, i.e., it incorporates design techniques that
  1779.    >are representative of algorithms used to protect classified
  1780.    >information.  Disclosure of the algorithm would permit analysis that
  1781.    >could result in discovery of these classified design techniques, and
  1782.    >this would be detrimental to national security.
  1783.  
  1784.    Wasn't it a Dr. Denning that said secrecy of algorithms should NOT be
  1785.   used to build secure cryto?  History certainly indicates this.
  1786.    Is all of our crypto based on a house of cards?
  1787.  
  1788. She's making another point here - this is using secrecy to prevent
  1789. *other* people from building secure crypto, not just to obscure
  1790. current crypto algorithms.  However, calling that "detrimental to
  1791. national security" would be blatant political propaganda.....
  1792.  
  1793. Realistically, though, there may have been design mistakes in current
  1794. crypto algorithms used for classified information; the NSA isn't
  1795. infallible, and they may have missed something.  And disclosing the
  1796. algorithm would increase the possibility of any mistakes being discovered.
  1797.  
  1798.    >However, while full exposure of the internal details of SKIPJACK would
  1799.    >jeopardize law enforcement and national security objectives, it would
  1800.  
  1801. I notice that this refers to "national security objectives" rather
  1802. than "national security", and doesn't say *who* set these objectives.
  1803.  
  1804. More later...
  1805. --
  1806. #    Pray for peace;      Bill
  1807. # Bill Stewart 1-908-949-0705 wcs@anchor.att.com AT&T Bell Labs 4M312 Holmdel N
  1808. # White House Comment Line 1-202-456-1111  fax 1-202-456-2461
  1809. # ROT-13 public key available upon request
  1810.  
  1811.  
  1812. Article 18525 of sci.crypt:
  1813. Newsgroups: sci.crypt
  1814. Path: lynx.unm.edu!fmsrl7!ukma!usenet.ins.cwru.edu!agate!library.ucla.edu!ddsw1
  1815. From: george@tessi.com (George Mitchell)
  1816. Subject: Re: SKIPJACK Review, Interim Report
  1817. Message-ID: <1993Aug2.170306.25724@tessi.com>
  1818. Organization: Test Systems Strategies, Inc., Beaverton, Oregon
  1819. References: <1993Aug1.220927.4510@guvax.acc.georgetown.edu>
  1820. Date: Mon, 2 Aug 1993 17:03:06 GMT
  1821. Lines: 35
  1822.  
  1823. Thank you, Dr. Denning, for posting the Skipjack report in a timely
  1824. manner.  On the whole, it looks like good news.  In particular, I was
  1825. happy to see these paragraphs:
  1826.  
  1827. >5.   Secrecy of the Algorithm
  1828.  
  1829. >The SKIPJACK algorithm is sensitive for several reasons.  Disclosure of
  1830. >the algorithm would permit the construction of devices that fail to
  1831. >properly implement the LEAF, while still interoperating with legitimate
  1832. >SKIPJACK devices.  Such devices would provide high quality
  1833. >cryptographic security without preserving the law enforcement access
  1834. >capability that distinguishes this cryptographic initiative.
  1835. [. . .]
  1836. >However, while full exposure of the internal details of SKIPJACK would
  1837. >jeopardize law enforcement and national security objectives, it would
  1838. >not jeopardize the security of encrypted communications.  This is
  1839. >because a shortcut attack is not feasible even with full knowledge of
  1840. >the algorithm.  Indeed, our analysis of the susceptibility of SKIPJACK
  1841. >to a brute force or shortcut attack was based on the assumption that
  1842. >the algorithm was known.
  1843.  
  1844. >Conclusion 3:  While the internal structure of SKIPJACK must be
  1845. >classified in order to protect law enforcement and national security
  1846. >objectives, the strength of SKIPJACK against a cryptanalytic attack
  1847. >does not depend on the secrecy of the algorithm.
  1848.  
  1849. Why did this make me so happy, when I am generally so displeased
  1850. with the Clipper initiative and the key-escrow scheme?
  1851.  
  1852. Because the disclosure of the Skipjack algorithm is INEVITABLE.
  1853.  
  1854. You can bet that {the top bad guys of the moment} will pry loose
  1855. the algorithm within a year.  While they may not be public-spirited
  1856. enough to immediately release it to the rest of us, eventually
  1857. someone will.                -- George Mitchell (george@tessi.com)
  1858.  
  1859.  
  1860.  
  1861.  
  1862.  
  1863. Joining the EFF
  1864. by Esther Dyson
  1865. Publisher of Release 1.0
  1866.  
  1867. The Electronic Frontier Foundation is probably best--but incorrectly--
  1868. known as "Mitch Kapor's organization to defend computer hackers." In
  1869. fact, the basic message of the Foundation, "There's a new world coming.
  1870. Let's make sure it has rules we can live with." These rules will
  1871. establish the rights and also the responsibilities of the users of the
  1872. electronic infrastructure- which means, eventually, all of us.
  1873.  
  1874. The Foundation's most visible efforts, yes, involve the defense of
  1875. people charged with various forms of electronic trespass and damage.
  1876. This is not to say that there's no such thing as illegal hacking, but
  1877. that not all hacking is illegal. Many hackers' rights are abridged when
  1878. they are arrested by government agents who don't understand how a
  1879. computer works. There's a certain fear of the unknown that makes people
  1880. suspect the worst of a supposed "computer criminal." Searches have been
  1881. overly broad, and charges ridiculously overstated. Moreover, innocent
  1882. bystanders are hurt too, when bulletin boards are closed down and their
  1883. means of communication with each other is disrupted.
  1884.  
  1885. Sentences are also unduly harsh: Consider the proposed prohibition on
  1886. Robert Riggs' use of a computer after his release from prison.  The
  1887. computer is not a magic, deadly instrument but rather something closer
  1888. to a telephone. Many criminals plan their crimes by telephone or even
  1889. commit telephone farud, but they don't get barred from telephone usage
  1890. thereafter. Says EFF: "Such restrictions tend to promote the notion that
  1891. computers are inherently dangerous...[and that] access [to them falls
  1892. properly within the scope of government action."
  1893.  
  1894. The EFF also advocates government funding for the National Research and
  1895. Education Network, and passage of bills to do 80 currently in the Senate
  1896. and House. That doesn't mean that NREN would be the only thing going,
  1897. but it would be a spur to and resource for private efforts. Certainly
  1898. such a network should exist, but what's the best way to get it done?
  1899. Should access be subsidized for the poor or distant, as it was for
  1900. telephone service and still is for postal service? Should the subsidies
  1901. be direct, or should they go to users, or should they be achieved
  1902. through regulation?
  1903.  
  1904. Perhaps these questions don't have absolute answers, just as the
  1905. telephone business has evolved through variety of forms (not always
  1906. gracefully, to be sure). Perhaps we should start with a subsidized
  1907. network that ultimately will pay its way!  Although the EFF has
  1908. positions on these issues, its major concern is that the public take
  1909. part in addressing them, rather than leaving decisions up to a handful
  1910. of bureaucrats and interested parties.
  1911.  
  1912. Beyond that, there are important issues to consider and resolve, such as
  1913. the definition and protection of Constitutional rights including
  1914. privacy, free speech and assembly. In some cases, its more important to
  1915. have laws that are clear than precisely what those laws are. The world
  1916. can adjust to most laws, as long as they make some sense and are
  1917. consistent. Most interesting right now is the delicate tension over the
  1918. classification of network services such as Compuserve and Prodigy.  Are
  1919. they publishers, liable for the information they disseminate, or
  1920. utilities and common carriers, required to carry anything for the public
  1921. at large -and therefore not liable for its content? Or is this a false
  1922. dichotomy (as AMIX's Phil Salin asserts): For example, a BBS might be
  1923. like a bookstore: free to select the books it stocks and sells, but not
  1924. responsible for their content individually (i.e., for libel, say).  Nor
  1925. is the bookstore responsible for what anyone says inside its walls. Yet
  1926. some "adult" bookstores and record stores have been closed by local
  1927. legal actions. The precedents are muddy.
  1928.  
  1929. Finally, there's the awkward question of how to make the network good
  1930. for people without stuffing culture down unwilling throats.  If you
  1931. believe that broadcast TV is mostly junk and public TV is mostly
  1932. subsidized culture for the well-off, how do we make networks a people's
  1933. medium - real global villages rather than a global TV set or a global
  1934. museum? Will people use them to communicate rather than vegetate if you
  1935. make it easy? Can we regain the community involvement people lost when
  1936. everything became too big and complicated? Are citizens' groups working
  1937. over the net fringe groups, or are they harbingers of how everyone could
  1938. get involved?
  1939.  
  1940. I came to this with the benign American assumption that anyone
  1941. apprehended by the police has probably done something wrong; spending
  1942. time in Eastern Europe, watching the LA police videos and learning about
  1943. some of the EFF cases have changed my perspective forever.
  1944.  
  1945. I am now a board member of the EFF. But don't worry, Release 1.0 won't
  1946. become a mouthpiece for the EFF. In fact, when Mitch Kapor asked me to
  1947. join, I responded that I was pleased and flattered, but not sure I
  1948. should join; I certainly don't agree with all the views of the other
  1949. board members. "That," said Mitch, "is the point."
  1950.  
  1951. In other words, I joined the EFF to help set its agenda, not just to
  1952. help carry it out. and so I strongly urge that you get involved too.
  1953.  
  1954. Esther Dyson is the Editor and publisher of Release 1.0, a newsletter
  1955. covering the computer industry, from which this article is reproduced by
  1956. permission.
  1957.  
  1958.  
  1959.  
  1960.  
  1961. From owner-cypherpunks@toad.com Sun Aug  1 16:02:48 1993
  1962.  id <AA01400>; Sun, 1 Aug 1993 16:02:46 -0600
  1963. Received: from toad.com by relay2.UU.NET with SMTP
  1964.  (5.61/UUNET-internet-primary) id AA01251; Sun, 1 Aug 93 17:59:44 -0400
  1965. Received: by toad.com id AA21591; Sun, 1 Aug 93 14:53:32 PDT
  1966. Received: by toad.com id AA21579; Sun, 1 Aug 93 14:53:07 PDT
  1967. Return-Path: <julian@panix.com>
  1968. Received: from panix.com ([198.7.0.2]) by toad.com id AA21575; Sun, 1 Aug 93 14
  1969. Received: by panix.com id AA20354
  1970.   (5.65c/IDA-1.4.4 for cypherpunks@toad.com); Sun, 1 Aug 1993 17:52:57 -0400
  1971. From: Julian Dibbell <julian@panix.com>
  1972. Message-Id: <199308012152.AA20354@panix.com>
  1973. Subject: Village Voice sidebars
  1974. To: cypherpunks@toad.com
  1975. Date: Sun, 1 Aug 1993 17:52:57 -0400 (EDT)
  1976. Mime-Version: 1.0
  1977. Content-Type: text/plain; charset=US-ASCII
  1978. Content-Transfer-Encoding: 7bit
  1979. Content-Length: 7407
  1980. Status: OR
  1981.  
  1982. Here are the two short sidebars that accompany the Village Voice article on
  1983. Cypherpunks et al. Posted by and with the permission of the author.
  1984.  
  1985. The first contains some of the more practical information that Tim May was
  1986. wondering about, though it does not point anyone towards ftp sites, mailing
  1987. lists, or anything as concrete as that. I didn't know whether you all would
  1988. appreciate an influx of "left-biased" :-) crypto-naifs flooding in here as a
  1989. result of my posting the list address, so I refrained. Also didn't think
  1990. advertising locations for PGP was a good idea, given the legal hassles that
  1991. might result to people doing the distribution. But if any of you think I was
  1992. being overscrupulous, I encourage you to write the Voice with further
  1993. information and I will do my best to see the letter gets published.
  1994.  
  1995. BUILDING A BETTER MONKEY WRENCH
  1996.  
  1997. Contrary to the conventional wisdom of an age gone cuckoo for ``smart''
  1998. technology, Luddism is neither dead nor beside the point -- it's just gotten
  1999. smarter. The Cypherpunks and other cryptography hackers are model
  2000. practitioners of a new, techno-savvy Luddism, implementing and popularizing
  2001. sophisticated gadgets that could short-circuit the awesome surveillance
  2002. capabilities built into cyberspace without harming its equally awesome power
  2003. to connect individuals. Long-term, these brave new tools will do more to
  2004. keep Big Brother out of your business than any legislation can, so you owe
  2005. yourself at least a cursory understanding of how they work. The following
  2006. primer should jump-start you. Read it and get smart.
  2007.  
  2008. PUBLIC-KEY CRYPTOGRAPHY: Most encryption schemes require sender and receiver
  2009. to agree on a secret encoding number, or key, before communication. This
  2010. increases vulnerability, since that first message establishing the key can't
  2011. itself be encrypted. Public-key systems, invented in 1975 by Ur-cypherpunk
  2012. Whitfield Diffie along with Martin Hellman, have no such requirement, making
  2013. them ideal for the highly snoopable channels of computer networks. In
  2014. public-key crypto, everybody creates two keys, one published for all the
  2015. world to read, and one kept absolutely secret. Whatever's encrypted with the
  2016. first can only be unlocked with the second. Thus, if you want to send
  2017. someone a secret message there's no need to make prior contact -- you just
  2018. look up that person's public key and use it to encrypt the text. Current
  2019. usage: The free public-key encryption program PGP is one of the most
  2020. popularly deployed crypto tools in the on-line world, with PGP public keys
  2021. rapidly becoming the electronic superhighway's equivalent of vanity plates.
  2022.  
  2023. ANONYMOUS REMAILERS: These systems aim to conceal not the contents of a
  2024. message but its source. A remailer is a network-connected computer that
  2025. takes in e-mail, then sends it on to a destination specified in attached,
  2026. encrypted instructions, thus placing a veil between sender and receiver. If
  2027. the message is sent through a chain of even a few remailers, the veil
  2028. quickly becomes rock solid, guaranteeing the sender's anonymity. Current
  2029. usage: The Cypherpunks maintain a working anonymous remailer chain, but the
  2030. most active are the one-hop systems used by participants in public on-line
  2031. discussions of bondage, foot worship, and assorted other predilections they
  2032. might not want their computer-literate boss/parents/neighbors to know
  2033. about.
  2034.  
  2035. DIGITAL SIGNATURES: In the fluid world of digital info, how do you verify
  2036. that a message is really from whom it claims it's from? Turn public-key
  2037. cryptography inside out, that's how. Have the sender encrypt the message
  2038. with her private key, then let the receiver try to decrypt it with the
  2039. sender's public key. If the decryption comes out clear, then the sender's
  2040. identity is confirmed -- without revealing her private key or even, if the
  2041. public key is attached to a pseudonymous but otherwise trustworthy on-line
  2042. persona, her physical identity. This is more or less how digital signatures
  2043. work. Current usage: mainly in corporate and bureaucratic settings, though
  2044. all good Cypherpunks try to make a habit of e-signing their e-mail.
  2045.  
  2046. ELECTRONIC CASH: Imagine the convenience of credit cards combined with the
  2047. anonymity of cash. Imagine a microchip-equipped debit card that instantly
  2048. deducts transactions from the user's bank account, yet does so without
  2049. revealing the payer's identity to the payee or linking payer and payee in
  2050. the bank's records. Imagine these mechanisms set loose in the world's
  2051. computer nets, converting great chunks of money supply into fast, loose,
  2052. digital e-cash. The wizardry of public-key crypto can make all this happen
  2053. and probably will. Current usage: experimental, mostly. Denmark, however, is
  2054. gearing up to implement an encrypted smart-card system, based on the ideas
  2055. of crypto-hacker David Chaum, who holds patents on most e-money
  2056. applications.
  2057.  
  2058. --
  2059.  
  2060. TALE FROM THE CRYPTO WARS
  2061.  
  2062. The high weirdness of the military's code-busting censorship moves peaked in
  2063. World War II, but didn't end there. It was during the Gulf War, in fact,
  2064. that military censors made one of the strangest additions to their already
  2065. strange list of banned communications: the Navajo language. A small number
  2066. of Navajos, it seems, wanted to send broadcast greetings in their native
  2067. tongue to loved ones stationed overseas, but Armed Forces Radio refused to
  2068. pass the messages along. Once again, the mere possibility of enemy signals
  2069. lurking in the noise was too much for the censors to bear. ``We have a
  2070. responsibility to control what's on the radio,'' said the lieutenant colonel
  2071. in charge, ``and if I don't know what it says then I can't control it.''
  2072.  
  2073.     In the ripest of ironies, however, it turns out that the only nation
  2074. ever known to have used Navajo as a cover for secret communications was the
  2075. United States itself. Throughout World War II's Pacific campaign, the Marine
  2076. Corps made heavy and effective use of its Navajo codetalker units--teams of
  2077. Navajo radiomen who spoke a slangy, cryptic patois difficult even for
  2078. uninitiated Navajos to grasp, and ultimately impossible for the Japanese to
  2079. decode. Today the codetalkers remain legendary figures on the rez and beyond
  2080. -- legendary enough indeed that New Mexico congressman Bill Richardson,
  2081. wielding the memory of their exploits, finally shamed Armed Forces Radio
  2082. into lifting its ban and letting Navajo greetings reach the Gulf.
  2083.  
  2084.     It's a familiar story. Prized and feared for its impenetrable otherness,
  2085. Navajo has met the same uneasy fate reserved for all true difference in a
  2086. country that both prides itself on cultural diversity and insistently
  2087. suppresses it. But in its blurring of the lines between language and secret
  2088. code, Navajo's passage through the belly of the military beast hints at one
  2089. way out of America's terminal cultural ambivalence. As arch-Cypherpunk John
  2090. Gilmore has argued, committing to universally accessible encryption is one
  2091. way for our society to finally take the ideal of diversity seriously --
  2092. backing it up ``with physics and mathematics, not with laws,'' and certainly
  2093. not with the lip service it's traditionally honored with. Cryptography could
  2094. guarantee us each a language of our own, which no censor, military or
  2095. otherwise, could hope to silence.
  2096.  
  2097.  
  2098.  
  2099. --
  2100. *********************************************************************
  2101. Julian Dibbell                                       julian@panix.com
  2102. *********************************************************************
  2103.  
  2104.  
  2105.  
  2106.  
  2107. From owner-cypherpunks@toad.com Thu Aug  5 22:11:35 1993
  2108.  id <AA11372>; Thu, 5 Aug 1993 22:11:23 -0600
  2109. Received: from toad.com by relay2.UU.NET with SMTP
  2110.  (5.61/UUNET-internet-primary) id AB06870; Thu, 5 Aug 93 23:58:34 -0400
  2111. Received: by toad.com id AA14703; Thu, 5 Aug 93 20:48:39 PDT
  2112. Received: by toad.com id AA14656; Thu, 5 Aug 93 20:46:37 PDT
  2113. Return-Path: <tcmay@netcom.com>
  2114. Received: from netcom5.netcom.com ([192.100.81.113]) by toad.com id AA14652; Th
  2115. Received: by netcom5.netcom.com (5.65/SMI-4.1/Netcom)
  2116.  id AA16297; Thu, 5 Aug 93 20:47:25 -0700
  2117. From: tcmay@netcom.com (Timothy C. May)
  2118. Message-Id: <9308060347.AA16297@netcom5.netcom.com>
  2119. Subject: (fwd) Re: Will SKIPJACK's algorithm get out? (Non-technical)
  2120. To: cypherpunks@toad.com
  2121. Date: Thu, 5 Aug 93 20:47:25 PDT
  2122. X-Mailer: ELM [version 2.3 PL11]
  2123. Status: OR
  2124.  
  2125. Here's a posting I did on how Skipjack (which I deliberately called
  2126. "Clipjack") can be likely broken by groups like ours. The anonymous
  2127. remailers, and the alt.whistleblowing group, can be used to publish
  2128. details of the whole Skipjack/Capstone/Mykotronx/MYK-78/etc. ball of
  2129. wax as they become available.
  2130.  
  2131. Whether we can actually be the ones to analyze the chips or not is
  2132. immaterial: spreading reports that Clipjack is vulnerable will be
  2133. useful disinformation (reduced confidence, fewer commercial sales,
  2134. more acceptance of more provably strong software-based alternatives,
  2135. etc.)
  2136.  
  2137. -Tim
  2138.  
  2139.  
  2140. Newsgroups: sci.crypt,alt.privacy.clipper
  2141. From: tcmay@netcom.com (Timothy C. May)
  2142. Subject: Re: Will SKIPJACK's algorithm get out? (Non-technical)
  2143. Message-ID: <tcmayCBBJCr.BsK@netcom.com>
  2144. Date: Fri, 6 Aug 1993 03:36:27 GMT
  2145.  
  2146.  
  2147. Larry Loen (lwloen@rchland.vnet.ibm.com) wrote:
  2148.  
  2149. : Myself, I confidently expect to see Skipjack published in some Eurocrypt
  2150. : proceedings or other in the next 4 or 5 years, especially if the darn thing
  2151. : is actually produced in any volumes.  There is a decidely
  2152. : different attitude in W. Europe towards this sort of thing.
  2153.  
  2154. : It's mostly a question of economics.  Will someone, somewhere put out the
  2155. : bucks to do a "tear down" of the chip and figure out how it works.  I could
  2156. : imagine some crypto company in Europe doing just that and being also motivate
  2157. : to publish what they find for competitive reasons. . .
  2158.  
  2159. Some of us plan to do just this: once "Clipjack" phones are finalized
  2160. and on sale and/or Mykotronx is selling finalized chips, they'll be
  2161. looked at.
  2162.  
  2163. I once ran Intel's electron-beam testing lab, so I have some
  2164. familiarity with looking at chips, including ostensibly
  2165. tamper-resistant modules. VLSI Technology is fabbing the chips, using
  2166. a process said to be quite tamper-resistant. We'll see. (While
  2167. publishing the algorithm may or may not be illegal, there's no
  2168. reasonable law saying you can't look at something, unless perhaps it's
  2169. formally classified....will the Clipjack chips have "Top Secret"
  2170. stamped on them? Somehow I can't quite picture this in phones sold
  2171. across the country and outside!)
  2172.  
  2173. (I'm not saying it'll be easy to do this reverse-engineering, mind
  2174. you.  Between mechanical barriers to access (carbide-like particles in
  2175. the packaging compound to deter grinding), complex-chemistry epoxies
  2176. to deter plasma- and chemical-decapping, various chip-level
  2177. countermeasures (storing bits on floating gates, using multiple layers
  2178. of metal, etc.), the access to the die surface may be very difficult.
  2179. The "smartcard" chip makers have led the way in devising
  2180. tamper-resistant chip processes, though their task is quite a bit
  2181. easier (stopping access to an active chip on an active smartcard, to
  2182. modify the money amounts) than Clipjack faces (stopping any
  2183. examination of the chip topology and programming which would reveal
  2184. the algorithms used)
  2185.  
  2186. But given enough samples, enough time, and some
  2187. commitment, the secrets of Clipjack will fall.)
  2188.  
  2189. As a "Cypherpunk" (cf. cover of "Wired" #2, "Whole Earth Review" Summer '93,
  2190. and the current (8-2-93) "Village Voice" cover story), I see no reason
  2191. not to publish the details. This'll let other folks build phones and other
  2192. comm systems which spoof or defeat the Clipjack system, especially the
  2193. disgusting and thoroughly un-American "key escrow" system.
  2194.  
  2195. Naturally, we'll use our "anonymous remailers" (multiple reroutings of
  2196. messages, with each node decrypting with its key and passing on what's
  2197. left to the next chosen node....diffusion and confusion, a la Chaum's
  2198. 1981 "CACM" paper on "digital mixes") to protect ourselves. No sense
  2199. taking chances that the Feds will view our "liberation" efforts with
  2200. disfavor and hit us with charges they devise (violations of Munitions
  2201. Act, RICO, sedition, etc.). This is how some of our members were able
  2202. to "liberate" secret Mykotoxin documents from the dumpsters of
  2203. Mykotoxin (something the Supremes have said is OK for law enforcement
  2204. to do, by the way) and post them anonymously to our mailing list (I
  2205. believe these docs were then posted to alt.whistleblowers, but they were
  2206. only _mentioned_ on sci.crypt, not actually posted).
  2207.  
  2208. I expect at least _three_ separate groups are preparing to break the
  2209. Clipjack algorithm, at least as embodied in the Clipper/Skipjack chips
  2210. that come on the market.
  2211.  
  2212. Breaking the system also allows independent observers to see if it
  2213. does in fact contain deliberate weaknesses (though the focus on
  2214. "weaknesses" is secondary to the basic issue of "key escrow" as a
  2215. concept--it is key escrow, especially mandatory key escrow, that is
  2216. the real issue. (Mandatory key escrow is not yet part of law, to be
  2217. fair, but still "in the wind"...we won't really know for a few more
  2218. years whether the "voluntary" key escrow system will become mandatory)
  2219.  
  2220. It'll also be interesting to see how Clipjack phone customers react to
  2221. the revelations of the algorithms.
  2222. (CLIPJACK.CRK 88%), (H)elp, (F)ind, (P)gUp, (T)op, (>), More?
  2223.  
  2224. Crypto anarchy means never having to say you're sorry.
  2225.  
  2226.  
  2227. Yours in the struggle,
  2228.  
  2229. -Tim May
  2230. --
  2231. ..........................................................................
  2232. Timothy C. May         | Crypto Anarchy: encryption, digital money,
  2233. tcmay@netcom.com       | anonymous networks, digital pseudonyms, zero
  2234. 408-688-5409           | knowledge, reputations, information markets,
  2235. W.A.S.T.E.: Aptos, CA  | black markets, collapse of governments.
  2236. Higher Power: 2^756839 | Public Key: PGP and MailSafe available.
  2237. Note: I put time and money into writing this posting. I hope you enjoy it.
  2238.  
  2239.  
  2240.  
  2241. From cypherpunks-request@toad.com Tue May 25 13:02:18 1993
  2242.  id <AA03727>; Tue, 25 May 1993 13:02:14 -0600
  2243. Received: by uucp-gw-2.pa.dec.com; id AA00801; Tue, 25 May 93 11:57:37 -0700
  2244. Received: by toad.com id AA22998; Tue, 25 May 93 11:46:18 PDT
  2245. Return-Path: <sytex!sytex.com!fergp@uunet.UU.NET>
  2246. Received: from relay2.UU.NET by toad.com id AA22994; Tue, 25 May 93 11:46:08 PD
  2247. Received: from spool.uu.net (via LOCALHOST) by relay2.UU.NET with SMTP
  2248.  (5.61/UUNET-internet-primary) id AA02788; Tue, 25 May 93 14:46:03 -0400
  2249. Received: from sytex.UUCP by spool.uu.net with UUCP/RMAIL
  2250.  (queueing-rmail) id 144431.19711; Tue, 25 May 1993 14:44:31 EDT
  2251. Received: by sytex.com (Smail3.1.28.1 #1)
  2252.  id m0ny3YT-00019OC; Tue, 25 May 93 14:16 EDT
  2253. To: cypherpunks@toad.com
  2254. Subject: Bill O' Rights
  2255. From: fergp@sytex.com (Paul Ferguson)
  2256. Message-Id: <J6a54B1w165w@sytex.com>
  2257. Date: Tue, 25 May 93 14:13:42 EDT
  2258. Organization: Sytex Communications, Inc
  2259. Status: OR
  2260.  
  2261. I remember reading this in the March ACM and thinking,"Man. He hit
  2262. that right on the head." When I ran across this transcript in Computer
  2263. Select earlier this morning (while looking for various encryption
  2264. products, no less), I thought those of you who had not already seen it
  2265. would be struck by John Perry's insights. BTW, I also have the full
  2266. transcripts of Dorothy Denning's, William A. Bayse's (Assistant
  2267. Director, FBI Technical Services Division) and Lewis M. Branscomb's
  2268. (Harvard University) articles which appeared in the same issue with
  2269. regards to Digital Telephony, if anyone cares for me to post them.
  2270. Looking back on the progression of events, beginning with the debate
  2271. of the Digital Telephony proposal and subsequently the proposal
  2272. currently (officially) referred to as the "Key Escrow" Chip (and its
  2273. associated escrow scheme), I can't help but surmise that the whole
  2274. ball of wax is geared towards allowing the Government the ability to
  2275. effectively eavesdrop on its citizens communications in the face of
  2276. advancing technology, without regard to privacy matters.
  2277.  
  2278. 8<---- Begin forwarded text ---------
  2279.  
  2280. Journal:    Communications of the ACM  March 1993 v36 n3 p21(3)
  2281. * Full Text COPYRIGHT Association for Computing Machinery Inc.1993.
  2282. ----------------------------------------------------------------------
  2283. Title:    Bill o' rights. (impact of technology on basic civil rights;
  2284.    humor) (Electronic Frontier)
  2285. Author:   Barlow, John Perry
  2286.  
  2287. ----------------------------------------------------------------------
  2288. Full Text:
  2289.  
  2290. *Note*    Only Text is presented here; see printed issues for graphics.
  2291.  
  2292. It has been almost three years since I first heard of the Secret Service
  2293. raids on Steve Jackson Games and the cyberurchins from the Legion of
  2294. Doom.  These federal exploits, recently chronicled in Bruce Sterling's
  2295. book Hacker Crackdown, precipitated the formation of the Electronic
  2296. Frontier Foundation and kicked loose an international digital liberties
  2297. movement which is still growing by leaps and conferences.
  2298.  
  2299. I am greatly encouraged by the heightened awareness among the citizens
  2300. of the Global Net of our rights, responsibilities, and opportunities.
  2301. I am also heartened that so many good minds now tug at the legal,
  2302. ethical, and social riddles which come from digitizing every damned
  2303. thing.  The social contract of Cyberspace is being developed with
  2304. astonishing rapidity, considering that we are still deaf, dumb, and
  2305. disembodied in here.
  2306.  
  2307. Meanwhile, back in the Physical World, I continue to be haunted by the
  2308. words of the first lawyer I called on behalf of Steve Jackson, Phiber
  2309. Optik, and Acid Phreak back in the spring of 1990.  This was Eric
  2310. Lieberman of the prestigious New York civil liberties firm Rabinowitz,
  2311. Boudin, Standard, Krinsky, and Lieberman.  I told him how the Secret
  2312. Service had descended on my acquaintances and taken every scrap of
  2313. circuitry or magnetized oxide they could find.  This had included not
  2314. only computers and disks, but clock radios and audio cassettes.
  2315.  
  2316. I told him that, because no charges had been filed, the government was
  2317. providing their targets no legal opportunity to recoup their confiscated
  2318. equipment and data.  (In fact, most of the victims of Operation Sun
  2319. Devil still have neither been charged nor had their property returned to
  2320. them.)
  2321.  
  2322. [This issue has been somewhat resolved with the recent ruling in
  2323.  favor of Steve Jackson and the subsequent award of damages.]
  2324.  
  2325. The searches were anything but surgical and the seizures appeared
  2326. directed less at gathering evidence than inflicting punishment without
  2327. the bothersome formality of a trial.  I asked Lieberman if the Secret
  2328. Service might not be violating the Fourth Amendment's assurance of "The
  2329. right of the people to be secure in their persons, houses, papers, and
  2330. effects, against unreasonable searches and seizures."
  2331.  
  2332. He laughed bitterly.  "I think if you take a look at case law for the
  2333. last ten years or so, you will find that the Fourth Amendment has
  2334. pretty much gone away," he said.
  2335.  
  2336. I did.  He was right.  A lot of what remained of it was flushed a year
  2337. later when the Rehnquist Court declared that in the presence of
  2338. "probable cause" ...a phrase of inviting openness...law enforcement
  2339. officials could search first and obtain warrants later.
  2340.  
  2341. Furthermore, I learned that through such sweeping prosecutorial
  2342. enablements as RICO and Zero Tolerance, the authorities could entract
  2343. their own unadjudicated administrative "fines" by keeping much of what
  2344. they seized for their own uses.
  2345.  
  2346. (This incentive often leads to disproportionalities between "punishment"
  2347. and "crime" which even Kafka might have found a bit over the top.  I
  2348. know of one case in which the DEA acquired a $14 million Gulfstream
  2349. bizjet from a charter operator because one of its clients left half a
  2350. gram of cocaine in its washroom.)
  2351.  
  2352. I tried to image a kind of interactive Bill of Rights in which
  2353. amendments would fade to invisibility as they became meaningless, but
  2354. I knew that was hardly necessary.  The citizens of Stalin's Soviet
  2355. Union had a constitutional guarantee of free expression which
  2356. obviously, like our own, allowed some room for judicial
  2357. interpretation.
  2358.  
  2359. It occurred to me then that a more honest approach might be to maintain
  2360. a concordant Bill of Rights, running in real time and providing
  2361. up-to-the-minute weather reports from the federal bench, but I never got
  2362. around to it.
  2363.  
  2364. Recently I started thinking about it again.  These thoughts were
  2365. inspired partly by Dorothy Denning's apology for the FBI's digital
  2366. telephony proposal (which appears in this issue).  I found her analysis
  2367. surprisingly persuasive, but I also found it fundamentally based on an
  2368. assumption I no longer share: the ability of the Bill of Rights to
  2369. restrain government, now or in the future.
  2370.  
  2371. The men who drafted the U.S.  Constitution and its first ten amendments
  2372. knew something that we have largely forgotten: Governments exist to limit
  2373. freedom.  That's their job.  And to the extent that utterly unbridled
  2374. liberty seems to favor the reptile in us, a little government is not
  2375. such a bad thing.  But it never knows when to quit.  As there is no
  2376. limit to either human imagination or creativity in the wicked service
  2377. of the Self, so it is always easy for our official protectors to envision
  2378. new atrocities to prevent.
  2379.  
  2380. Knowing this, James Madison and company designed a government which was
  2381. slightly broken up front.  They intentionally created a few wrenches to
  2382. cast into the works, and these impediments to smooth governmental
  2383. operation were the Bill of Rights.
  2384.  
  2385. Lately though, we find ourselves living in a world where the dangers we
  2386. perceive are creatures of information rather than experience.  Since
  2387. the devil one knows is always less fearsome than the worst one can
  2388. imagine, there is no limit to how terrifying or potent these dangers can
  2389. seem.
  2390.  
  2391. Very few of us, if any, have ever felt the malign presence of a real,
  2392. live terrorist or drug lord or Mafia capo or dark-side hacker.  They
  2393. are projected into our consciousness by the media and the government,
  2394. both of which profit directly from our fear of them.  These enemies are,
  2395. in our (tele)visions of them, entirely lacking in human decency or
  2396. conscience. There is no reason they should be mollycoddled with
  2397. constitutional rights.
  2398.  
  2399. And so, we have become increasingly willing to extend to government what
  2400. the Founding Fathers would not: real efficiency.  The courts have been
  2401. updating the Bill of Rights to fit modern times and perils, without
  2402. anyone having to go through the cumbersome procedure of formal amendment.
  2403.  
  2404. The result, I would suggest with only a little sarcasm or hyperbole, has
  2405. come to look something like this:
  2406.  
  2407. Bill O' Rights
  2408.  
  2409. AMENDMENT 1
  2410.  
  2411. Congress shall encourage the practice of Judeo-Christian religion by its
  2412. own public exercise thereof and shall make no laws abridging the freedom
  2413. of responsible speech, unless such speech is in a digitized form or
  2414. contains material which is copyrighted, classified, proprietary, or
  2415. deeply offensive to non-Europeans, nonmales, differently abled or
  2416. alternatively preferenced persons; or the right of the people peaceably
  2417. to assemble, unless such assembly is taking place on corporate or
  2418. military property or within an electronic environment, or to make
  2419. petitions to the government for a redress of grievances, unless those
  2420. grievances relate to national security.
  2421.  
  2422. AMENDMENT 2
  2423.  
  2424. A well-regulated militia having become irrelevant to the security of the
  2425. state, the right of the people to keep and bear arms against one another
  2426. shall nevertheless remain uninfringed, excepting such arms as may be
  2427. afforded by the poor or those perferred by drug pushers, terrorists, and
  2428. organized criminals, which shall be banned.
  2429.  
  2430. AMENDMENT 3
  2431.  
  2432. No soldier shall, in time of peace, be quartered in any house, without
  2433. the consent of the owner, unless that house is thought to have been used
  2434. for the distribution of illegal substances.
  2435.  
  2436. AMENDMENT 4
  2437.  
  2438. The right of the people to be secure in their persons, houses, papers and
  2439. effects against unreasonable searches and seizures, may be suspended to
  2440. protect public welfare, and upon the unsupported suspicion of law
  2441. enforcement officials, any place or conveyance shall be subject to
  2442. immediate search, and any such places or conveyances or property within
  2443. them may be permanently confiscated without further judicial proceeding.
  2444.  
  2445. AMENDMENT 5
  2446.  
  2447. Any person may be held to answer for a capital, or otherwise infamous
  2448. crime involving illicit substances, terrorism, or child pornography, or
  2449. upon any suspicion whatever; and may be subject for the same offense to
  2450. be twice put in jeopardy of life or limb, once by the state courts and
  2451. again by the federal judiciary; and may be compelled by various means,
  2452. including the forced submission of breath samples, bodily fluids, or
  2453. encryption keys, to be a witness against himself, refusal to do so
  2454. constituting an admission of guilt; and may be deprived of life, liberty,
  2455. or property without further legal delay; and any property thereby
  2456. forfeited shall be dedicated to the discretionary use of law enforcement
  2457. agencies.
  2458.  
  2459. AMENDMENT 6
  2460.  
  2461. In all criminal prosecutions, the accused shall enjoy the right to a
  2462. speedy and private plea bargaining session before pleading guilty.  He is
  2463. entitled to the assistance of underpaid and indifferent counsel to
  2464. negotiate his sentence, except where such sentence falls under federal
  2465. mandatory sentencing requirements.
  2466.  
  2467. AMENDMENT 7
  2468.  
  2469. In suits at common law, where the contesting parties have nearly
  2470. unlimited resources to spend on legal fees, the right of trail by jury
  2471. shall be preserved.
  2472.  
  2473. AMENDMENT 8
  2474.  
  2475. Sufficient bail may be required to ensure that dangerous criminals will
  2476. remain in custody, where cruel punishments are usually inflicted.
  2477.  
  2478. AMENDMENT 9
  2479.  
  2480. The enumeration in the Constitution of certain rights, shall not be
  2481. construed to deny or disparage others which may be asserted by the
  2482. government as required to preserve public order, family values, or
  2483. national security.
  2484.  
  2485. AMENDMENT 10
  2486.  
  2487. The powers not delegated to the U.S.  by the Constitution, shall be
  2488. reserved to the U.S.  Departments of Justice and Treasury, except when
  2489. the states are willing to forsake federal funding.
  2490.  
  2491. [John P. Barlow is a technological author and the cofounder (with Mitch
  2492. Kapor) of the Electronic Frontier Foundation.  He currently lives in
  2493. Wyoming, New York and "in Cyberspace." His email address is barlow
  2494. @eff.org.]
  2495.  
  2496. Paul Ferguson               |  The future is now.
  2497. Network Integrator          |  History will tell the tale;
  2498. Centreville, Virginia USA   |  We must endure and struggle
  2499. fergp@sytex.com             |  to shape it.
  2500.  
  2501.    Stop the Wiretap (Clipper/Capstone) Chip.
  2502.  
  2503.  
  2504.  
  2505. From owner-cypherpunks@toad.com Sun Aug  1 20:04:57 1993
  2506.  id <AA03157>; Sun, 1 Aug 1993 20:04:54 -0600
  2507. Received: from toad.com by relay2.UU.NET with SMTP
  2508.  (5.61/UUNET-internet-primary) id AA08338; Sun, 1 Aug 93 21:54:43 -0400
  2509. Received: by toad.com id AA27620; Sun, 1 Aug 93 18:47:25 PDT
  2510. Received: by toad.com id AA27616; Sun, 1 Aug 93 18:47:16 PDT
  2511. Return-Path: <sytex!sytex.com!fergp@uunet.UU.NET>
  2512. Received: from relay2.UU.NET by toad.com id AA27612; Sun, 1 Aug 93 18:47:06 PDT
  2513. Received: from spool.uu.net (via LOCALHOST) by relay2.UU.NET with SMTP
  2514.  (5.61/UUNET-internet-primary) id AA07276; Sun, 1 Aug 93 21:47:03 -0400
  2515. Received: from sytex.UUCP by uucp1.uu.net with UUCP/RMAIL
  2516.  (queueing-rmail) id 214530.12641; Sun, 1 Aug 1993 21:45:30 EDT
  2517. Received: by sytex.com (Smail3.1.28.1 #1)
  2518.  id m0oMo6b-0000wjC; Sun, 1 Aug 93 20:50 EDT
  2519. To: cypherpunks@toad.com
  2520. Subject: NSA: The Eyes of Big Brother
  2521. From: fergp@sytex.com (Paul Ferguson)
  2522. Message-Id: <JLqm8B2w165w@sytex.com>
  2523. Date: Sun, 01 Aug 93 20:44:54 EDT
  2524. Organization: Sytex Communications, Inc
  2525. Status: OR
  2526.  
  2527. reprinted without permission from Claustrophobia:
  2528.  
  2529. Claustrophobia
  2530. August 1993
  2531. Volume 2, Number 7
  2532.  
  2533.  
  2534.  
  2535. NSA: The Eyes of Big Brother
  2536. by Charles Dupree
  2537.  
  2538. -----------------------------------------------------------
  2539.  
  2540. The historical of the National Security Agency (NSA) presented
  2541. here includes and depends on information reported in three books.
  2542. The vast majority of data on the National Security Agency comes
  2543. from James Bamford's book The Puzzle Palace [1982]; all
  2544. quotations are taken from Bamford unless otherwise noted. As Tim
  2545. Weiner says, this book is "The best -- the only -- history of the
  2546. NSA." Material about NSA's secret funding comes entirely from
  2547. Weiner's Blank Check [1990], which also provided budget estimates
  2548. and supporting material for other sections. The CIA and the Cult
  2549. of Intelligence by Victor Marchetti and John D. Marks [1980
  2550. edition, originally published 1974], provided background
  2551. information and a glimpse of the NSA from within the intelligence
  2552. community but outside the agency itself.
  2553. --------------------------------------------------------------
  2554.  
  2555. The oppressive atmosphere of Orwell's 1984 arises from the
  2556. omnipresence of Big Brother, the symbol of the government's
  2557. concern for the individual. Big Brother controls the language,
  2558. outlawing words he dislikes and creating new words for his
  2559. favorite concepts. He can see and hear nearly everything, public
  2560. or private. Thus he enforces a rigid code of speech and action
  2561. that erodes the potential for resistance and reduces the need for
  2562. force. As Noam Chomsky says, propaganda is to democracy what
  2563. violence is to totalitarianism. Control thoughts, and you can
  2564. easily control behavior.
  2565.  
  2566. U.S. history affords a prime example in the era named after
  2567. Senator Joseph McCarthy, though he had many supporters in his
  2568. attack on freedom of thought and speech. Perhaps his most
  2569. powerful friend was J. edgar Hoover, who fed him material from
  2570. Federal Bureau of Investigation (FBI) files (some of it true)
  2571. which  he used to attack individuals for their supposed political
  2572. leanings. By the time of Watergate, the Central Intelligence
  2573. Agency (CIA) had become at least as notorious as the FBI, due
  2574. largely to its assassinations of foreign leaders and support for
  2575. military coups around the world.
  2576.  
  2577. The Creation of the NSA
  2578.  
  2579. Budgetary authority for the National Security Agency (NSA)
  2580. apparently comes from the Central Intelligence Act of 1949. This
  2581. act provides the basis for the secret spending program known as
  2582. the black budget by allowing any arm of the government to
  2583. transfer money to the CIA "without regard to any provisions of
  2584. the law," and allowing the CIA to spend its funds as it sees fit,
  2585. with no need to account for them.
  2586.  
  2587. Congress passed the C.I.A. Act despite the fact that only the
  2588. ranking members of the Senate and House Armed Services Committees
  2589. knew anything about its contents; the remaining members of
  2590. Congress were told that open discussion, or even clear
  2591. explanation, of the bill would be counterproductive. There were
  2592. complaints about the secrecy; but in the end the bill passed the
  2593. House by a vote of 348-4, and the Senate by a majority voice
  2594. vote.
  2595.  
  2596. The NSA's estimated $10 billion annual allocation (as of 1990) is
  2597. funded entirely through the black budget. Thus Congress
  2598. appropriates funds for the NSA not only without information on
  2599. the agency's plans, but without even a clear idea of the amount
  2600. it appropriates; and it receives no accounting of the uses to
  2601. which the funds were put. This naturally precludes any debate
  2602. about the direction or management of such agencies, effectively
  2603. avoiding public oversight while spending public funds. (Weiner
  2604. notes the analogy to "Taxation without representation.")
  2605.  
  2606. Watching and Listening
  2607.  
  2608. "The NSA has also spent a great deal of time and money spying on
  2609. American citizens. For 21 years after its inception it tracked
  2610. every telegram and telex in and out of the United States, and
  2611. monitored the telephone conversations of the politically
  2612. suspect." (Weiner, Blank Check)
  2613.  
  2614. Due to its unique ability to monitor communications within the
  2615. U.S. without a warrant, which the FBI and CIA cannot legally do,
  2616. NSA becomes the center of attempts to spy on U.S. citizens.
  2617. Nominally this involves only communications in which at least one
  2618. terminal is outside the U.S., but in practice target lists have
  2619. often grown to include communications between U.S. citizens
  2620. within the country. And political considerations have sometimes
  2621. become important.
  2622.  
  2623. During the Nixon administration, for example, various agencies
  2624. (e.g., FBI, CIA, Secret Service) requested that the NSA provide
  2625. all information it encountered showing that foreign governments
  2626. were attempting to influence or controls activities of U.S.
  2627. anti-war groups, as well as information on civil rights, draft
  2628. resistance/evasion support groups, radical-related media
  2629. activities, and so on, "where such individuals have some foreign
  2630. connection," probably not that uncommon given the reception such
  2631. groups usually receive at home. Clearly it would have been
  2632. illegal for those agencies to gather such information themselves
  2633. without warrants, but they presumably believed that the NSA was
  2634. not similarly restricted when they included on their watch lists
  2635. such as Nixonian bugaboos as Eldridge Cleaver, Abbie Hoffman,
  2636. Jane Fonda, Joan Biaz, Dr. Benjamin Spock, and the Rev. ralph
  2637. Abernathy. Presumably the name of Dr, Martin Luther King, Jr.,
  2638. was removed from the list the year Nixon was elected; certainly
  2639. it was a targeted name before that time.
  2640.  
  2641. It is not feasible to determine in advance which telegrams and
  2642. telephone calls will be among those the NSA is tasked with
  2643. intercepting. Therefore, the NSA is normally reduced to recording
  2644. all traffic on lines it is monitoring, and screening this traffic
  2645. (by computer when possible) to catch targeted communications.
  2646. This is called the "vacuum-cleaner approach."
  2647.  
  2648. Also basic to this method is the "watch list" of groups and
  2649. individuals whose communications should be "targeted." When a
  2650. target is added to the watch list, NSA's computers are told to
  2651. extract communications to, from, or about the target; the agency
  2652. can then examine the selected communications and determine
  2653. whether they constitute intelligence data.
  2654.  
  2655. This list of targets usually expands to include all members of
  2656. targeted groups plus individuals and groups with whom they
  2657. communicate; thus it has a tendency to grow rapidly if not
  2658. checked. Some requests seems a bit astonishing: during the
  2659. presidency of Richard Nixon, a Quaker, J. Edgar Hoover requested
  2660. "complete surveillance of all Quakers in the United States"
  2661. because he thought they were shipping food and supplies to
  2662. Southeast Asia.
  2663.  
  2664. Project Shamrock
  2665.  
  2666. Project Shamrock was initiated in 1945 by the Signal Security
  2667. Agency (SSA), which eventually merged into the NSA. Until the
  2668. project was terminated in 1975 to prevent investigation, Shamrock
  2669. involved NSA (and its predecessors) in communications collection
  2670. activities that would be illegal for agencies such as the CIA or
  2671. FBI.
  2672.  
  2673. Under Shamrock, the international branches of RCA, ITT, and
  2674. Western Union provided access by SSA, and its successor NSA, to
  2675. certain telegrams sent by those companies. each company's counsel
  2676. recommended against involvement on legal grounds; each company
  2677. requested the written opinion of the Attorney General that it was
  2678. not making itself liable to legal action. However, none of them
  2679. received anything in writing from anyone in the government, and
  2680. they all cooperated without it. (They did get a verbal assurance
  2681. from the first Secretary of Defense, James Forrestal, who said he
  2682. was speaking for the President; thus they may have been concerned
  2683. at his resignation just over a year later, his hospitalization
  2684. within a week suffering from depression, anxiety, and paranoia,
  2685. and his suicide less than two months later.)
  2686.  
  2687. As Shamrock grew, and the NSA began to develop its own means of
  2688. intercepting communications, the watch list approach became the
  2689. accepted standard, since nothing less was effective or
  2690. worthwhile. the intelligence community became aware that it could
  2691. enter a name on the watch list more or less at will, and it would
  2692. soon receive the requested material, marked classified, and
  2693. gathered in within (or perhaps under cover of) the law.
  2694.  
  2695. The Huston Plan
  2696.  
  2697. The Huston Plan, formally known as "Domestic Intelligence
  2698. Gathering Plan: Analysis and Strategy," was submitted in July
  2699. 1970 to President Nixon. The goal of the plan was to relax some
  2700. restrictions on intelligence gathering, apparently those of NSCID
  2701. No. 6. Some parts of the intelligence community felt that these
  2702. relaxations would assist their efforts. The proposals included:
  2703.  
  2704. o allowing the NSA to monitor "communications of U.S. citizens
  2705. using international facilities" (presumably facilities located in
  2706. the U.S., since the NSA already had authority to monitor such
  2707. communications if at least one terminal was outside U.S.
  2708. territory)
  2709.  
  2710. o intensifying "coverage of individuals and groups in the United
  2711. States who pose a major threat to the internal security"
  2712.  
  2713. o modifying restrictions "to permit selective use of
  2714. [surreptitious entry] against other urgent and high priority
  2715. internal security targets" as well as to procure "vitally needed
  2716. foreign cryptographic material," which would have required the
  2717. FBI to accept warrantless requests for such entries from other
  2718. agencies ("Use of this technique is clearly illegal: it amounts
  2719. to burglary. It is also highly risky and could result in great
  2720. embarrassment if exposed. However, it is also the most fruitful
  2721. tool and can produce the type of intelligence which cannot be
  2722. obtained in any other fashion.")
  2723.  
  2724. President Nixon approved this plan over the objection of J. Edgar
  2725. Hoover and without the knowledge of Attorney General Mitchell.
  2726. Hoover went to Mitchell, who had been left out of the entire
  2727. process, and was consequently angry; Mitchell convinced Nixon to
  2728. withdraw his approval 13 days after giving it.
  2729.  
  2730. Project Minaret
  2731.  
  2732. The size and complexity of the domestic watch list program became
  2733. a problem, since it bordered on illegality. Project Minaret was
  2734. established on July 1, 1969, to "privid[e] more restrictive
  2735. control" on the domestic products, and "to restrict the knowledge
  2736. that information is being collected and processed by the National
  2737. Security Agency." The agency knew it was close to legal
  2738. boundaries, and wanted to protect itself.
  2739.  
  2740. Minaret continued until the fall of 1973, when Attorney General
  2741. Richardson became aware of the domestic watch list program and
  2742. ordered such activities stopped. As the Watergate drama played
  2743. out, Congress began to hear about the NSA's projects, and within
  2744. two years formally inquiring about them
  2745.  
  2746. Uncontrolled Activities
  2747.  
  2748. Like most  intelligence agencies, the NSA uses words such as
  2749. "interrupt" and "target" in a technical sense with a precise but
  2750. often classified definition. This specialized language makes it
  2751. difficult to legislate or oversee the activities involved. For
  2752. instance, in NSA terms a conversation that is captured, decoded
  2753. if necessary, and distributed to the requesting agency is not
  2754. considered  to be the product of eavesdropping unless one of the
  2755. parties to the conversation is explicitly targeted. However, the
  2756. NSA does not depend on semantic defences; it can also produce
  2757. some legal arguments for exempting itself from normal
  2758. requirements.
  2759.  
  2760. On the rare occasions when NSA officials have to testify before
  2761. Congress, they have claimed a mandate broad enough to require a
  2762. special legal situation. In 1975, the NSA found its activities
  2763. under scrutiny by the Senate Intelligence Committee, chaired by
  2764. Frank Church; the House Select Committee on the Intelligence
  2765. Community, under Otis Pike; and the House Government Operations
  2766. Subcommittee on Government Information and Individual Rights, led
  2767. by Bella Abzug. The agency was notably consistent in responding
  2768. to those committees.
  2769.  
  2770. When Lt. Gen. Lew Allen appeared before the Pike committee, he
  2771. pointed out that it was the first time an NSA director had been
  2772. required to testify in open session. Two days earlier, CIA
  2773. director William Colby had testified that the NSA was not always
  2774. able to separate the calls of U.S. citizens from the traffic it
  2775. monitors. The general counsel of the NSA, Roy Banner, joined
  2776. Allen as witness. he was asked if, in his opinion, the NSA could
  2777. legally intercept overseas telephone calls from U.S. citizens
  2778. despite the legal prohibition on wiretapping. He replied, "That
  2779. is correct."
  2780.  
  2781. The top three officers of the NSA spoke with a single voice to
  2782. the Church committee. When the committee's chief counsel said to
  2783. Allen, "You believe you are consistent with the statutes, but
  2784. there is not any statute that prohibits your interception of
  2785. domestic communications." When deputy director Buffham was asked
  2786. about the legality of domestic aspects of the Huston plan, he
  2787. said, "Legality? That particular aspect didn't enter into the
  2788. discussions." Counsel Banner responded at least three times to
  2789. similar questions that the program had been legal at the time.
  2790. (Testimony took place on Oct. 29, 1975; Project Shamrock and its
  2791. watch lists were halted in mid-May of that year.)
  2792.  
  2793. The Abzug committee tried to get the story from the
  2794. communications corporations that had cooperated in Project
  2795. Shamrock. its hearings in late 1975 were unproductive because RCA
  2796. and ITT informed the committee, two days before hearings began,
  2797. that their executives would not appear without a subpoena; and a
  2798. former FBI agent who had been cooperating was forbidden by his
  2799. old employer from testifying. When the committee reconvened in
  2800. early 1976, it issued subpoenas to three FBI special agents, plus
  2801. one former agent; one NSA employee; and executives from
  2802. international arms of RCA, ITT, and Western Union. President Ford
  2803. prevented the five FBI/NSA people from testifying with a claim of
  2804. executive privilege, and the Attorney general requested that the
  2805. corporations refuse to comply with the subpoenas on the same
  2806. grounds. Their testimony in spite of that request brought Project
  2807. Shamrock to light less than a year after it was quickly
  2808. terminated.
  2809.  
  2810. There may have been some legal basis for the NSA claims of
  2811. extra-legal status. Despite having no statutory basis  or
  2812. charter, the NSA has considerable statutory protection: various
  2813. statutes, such as the COMINT statute, 18 U.S.C. 798; Public Law
  2814. 86-36; and special provisions of the 1968 Omnibus Crime Control
  2815. and safe Streets Act, exempt it from normal scrutiny, even from
  2816. within the government. Thus the agency may be right in
  2817. interpreting the law to say that it can do anything not
  2818. specifically prohibited by the President of the National Security
  2819. Council.
  2820.  
  2821. NSCID No. 6, NSA's secret charter, includes this important
  2822. exemption (according to James Bamford's reconstruction):
  2823.  
  2824.   "The special nature of Communications Intelligence activities
  2825.   requires that they be treated in all respects as being outside
  2826.   the framework of other or general intelligence activities.
  2827.   Orders, directives, policies, or recommendations of any
  2828.   authority of the Executive branch relating to the collection
  2829.   ... of intelligence shall not be applicable to Communications
  2830.   Intelligence activities, unless specifically so stated and
  2831.   issued by competent departmental or agency authority
  2832.   represented on the [U.S. Communications Intelligence] Board.
  2833.   Other National Security Council Intelligence Directives to the
  2834.   Director of Central Intelligence and related implementing
  2835.   directives issued by the Director of Central Intelligence shall
  2836.   be construed as non-applicable to Communications Intelligence
  2837.   unless the National Security Council has made its directive
  2838.   specifically applicable to COMINT."
  2839.  
  2840. The unchecked ability to intercept and read communications,
  2841. including those of U.S. citizens within the country, would be
  2842. dangerous even if carefully regulated by elected officials held
  2843. to a public accounting.
  2844.  
  2845. When the method is available to officials whose names are often
  2846. unknown even to Congress who work for unaccountable agencies
  2847. like the NSA, it is very difficult for the intelligence
  2848. community, the defense community, and the Executive to refrain
  2849. form taking advantage of such easily obtained knowledge.
  2850.  
  2851. The lack of any effective oversight of the NSA makes it possible
  2852. for the agency to initiate or expand operations without
  2853. authorization from higher (or even other) authority. Periodic
  2854. meetings of members of the intelligence community do not
  2855. constitute true oversight or public control of government; and
  2856. the same is true of the provision of secret briefings to a small
  2857. number of senior members of the Congress, all chosen by the
  2858. intelligence community and sworn to secrecy.
  2859.  
  2860. Oversight of such extensive communications capability is
  2861. important enough; but NSA's capabilities are not necessarily
  2862. limited to intercepting and decrypting communications. The NSA
  2863. can also issue direct commands to military units involved in
  2864. Signals Intelligence (SIGINT) operations, bypassing even the
  2865. Joint Chiefs of Staff. Such orders are subject only to appeal to
  2866. the Secretary of Defense, and provide the NSA with capabilities
  2867. with which it could conceivably become involved in operations
  2868. beyond the collection of intelligence. At least, it does not seem
  2869. to be legally restrained from doing so.
  2870.  
  2871. It appears that the only effective restraint on the NSA is the
  2872. direct authority of the President, the National Security Council
  2873. (NSC), the Secretary of Defense, and the U.S. Intelligence Board.
  2874. Since the agency was created and chartered in secret by the
  2875. President and the NSC, it can presumably be modified in secret by
  2876. the same authorities.
  2877.  
  2878. Nor is the NSA bereft of means of influence other branches of
  2879. government, as Marchetti and Marks note:
  2880.  
  2881.    "A side effect of the NSA's programs to intercept diplomatic
  2882.    and commercial messages is that rather frequently certain
  2883.    information is acquired about American citizens, including
  2884.    members of Congress and other federal officials, which can be
  2885.    highly embarrassing to those individuals. This type of
  2886.    intercept message is handled with even greater care than the
  2887.    NSA's normal product, which itself is so highly classified a
  2888.    special security clearance is needed to see it."
  2889.  
  2890.  
  2891. Complete control over a secret agency with at least 60,000 direct
  2892. employees, a $10 billion budget, direct command of some military
  2893. units, and the ability to read all communications would be an
  2894. enormous weapon with which to maintain tyranny were it to arise.
  2895. A President with a Napoleonic or Stalinistic delusion would find
  2896. the perfect tool for the constant supervision of the individual
  2897. by the state in the NSA; not unlike scenarios depicted in novels
  2898. such as Orwell's 1984.
  2899.  
  2900. Senator Schweiker of the Church committee asked NSA director Allen
  2901. if it were possible to use NSA's capabilities "to monitor
  2902. domestic conversations within the United States if some person
  2903. with malintent desired to do it," and was probably not surprised
  2904. by Allen's "I suppose that such a thing is technically possible."
  2905. Certainly Senator Church feared the possibility:
  2906.  
  2907.    "That capability at any time could be turned around on the
  2908.    American people and no American would have any privacy left,
  2909.    such is the capability to monitor everything: telephone
  2910.    conversations, telegrams, it doesn't matter. There would be no
  2911.    place to hide. If this government ever became a tyranny, if a
  2912.    dictator ever took charge in this country, the technological
  2913.    capacity that the intelligence community has given the
  2914.    government could enable it to impose total tyranny, and there
  2915.    would be no way to fight back, because the most careful effort
  2916.    to combine together in resistance to the government, no matter
  2917.    how privately it was done, is within the reach of the
  2918.    government to know. Such is the capability of this technology
  2919.    ...
  2920.  
  2921.    I don't want to see this country ever go across the bridge. I
  2922.    know the capability that is there to make tyranny total in
  2923.    America, and we must see it that this agency and all agencies
  2924.    that possess this technology operate within the law and under
  2925.    proper supervision, so that we never cross over that abyss.
  2926.    That is the abyss from which there is no return..."
  2927.  
  2928.  
  2929. [This concludes part one of our two-part series on the National
  2930. Security Agency. Read part 2. "The NSA and the Clipper
  2931. Initiative," in next month's Claustrophobia.]
  2932.  
  2933. --------------------------------------------------------------
  2934.  
  2935. Charles Dupree writes user documentation for a Silicon Valley
  2936. software company. In recent years he has become concerned at the
  2937. intrusive power of the National Security Agency; but this is
  2938. probably just the effect of his antisocial habit of reading.
  2939.  
  2940.  
  2941. 8<------ Snip, snip ---------
  2942.  
  2943. For more information on Claustrophobia, contact Dena Bruedigam at
  2944. dbruedig@magnus.acs.ohio-state.edu
  2945.  
  2946. Paul Ferguson               |  "Government, even in its best state,
  2947. Network Integrator          |   is but a necessary evil; in its worst
  2948. Centreville, Virginia USA   |   state, an intolerable one."
  2949. fergp@sytex.com             |      - Thomas Paine, Common Sense
  2950.  
  2951.          I love my country, but I fear its government.
  2952.  
  2953.  
  2954.  
  2955.  
  2956. From owner-cypherpunks@toad.com Thu Aug  5 08:03:18 1993
  2957.  id <AA22321>; Thu, 5 Aug 1993 08:03:15 -0600
  2958. Received: from toad.com by relay2.UU.NET with SMTP
  2959.  (5.61/UUNET-internet-primary) id AA28023; Thu, 5 Aug 93 09:49:56 -0400
  2960. Received: by toad.com id AA21266; Thu, 5 Aug 93 06:39:51 PDT
  2961. Received: by toad.com id AA21232; Thu, 5 Aug 93 06:38:38 PDT
  2962. Return-Path: <pcw@access.digex.net>
  2963. Received: from access.digex.net ([164.109.10.3]) by toad.com id AA21226; Thu, 5
  2964. Received: by access.digex.net id AA26748
  2965.   (5.65c/IDA-1.4.4 for cypherpunks@toad.com); Thu, 5 Aug 1993 09:38:21 -0400
  2966. Date: Thu, 5 Aug 1993 09:38:21 -0400
  2967. From: Peter Wayner <pcw@access.digex.net>
  2968. Message-Id: <199308051338.AA26748@access.digex.net>
  2969. To: cypherpunks@toad.com
  2970. Status: OR
  2971.  
  2972.  
  2973.  
  2974. The Rule of Law and the Clipper Escrow Project
  2975.  
  2976. Last Thursday, I attended the first day of the Computer System Ssecurity
  2977. and Privacy Advisory Board in Washington. This is a group of industry
  2978. experts who discuss topics in computer security that should affect the
  2979. public and industry. Some of the members are from users like banks and
  2980. others are from service providing companies like Trusted Information
  2981. Services. Lately, their discussion has centered on the NSA/NIST's
  2982. Clipper/Capstone/Skipjack project and the effects it will have on
  2983. society.
  2984.  
  2985. At the last meeting, the public was invited to make comments and they
  2986. were almost unanimously skeptical and critical. They ranged from
  2987. political objections to the purely practical impediments. Some argued
  2988. that this process of requiring the government to have the key to all
  2989. conversations was a violation of the fourth amendment of the
  2990. constitution prohibiting warrentless searches. Others noted that a
  2991. software solution was much simpler and cheaper even if the chips were
  2992. going to cost a moderate $25. There were many different objections,
  2993. but practically everyone felt that a standard security system was
  2994. preferable.
  2995.  
  2996. This meeting was largely devoted to the rebutals from the
  2997. government. The National Security Association, the Department of
  2998. Justice, the FBI, the national association of District Attorneys
  2999. and Sheriffs and several others were all testifying today.
  3000.  
  3001. The board itself runs with a quasi-legal style they make a point of
  3002. making both video and audio tapes of the presentations. The entire
  3003. discussion is conducted with almost as much gravity as Congressional
  3004. hearings.  The entire meeting was suffused with an air of ernest
  3005. lawfullness that came these speakers. All of them came from the upper
  3006. ranks of the military or legal system and a person doesn't rise to
  3007. such a position without adopting the careful air of the very diligent
  3008. bureaucrat. People were fond of saying things like, "Oh, it's in the
  3009. Federal Register.  You can look it up." This is standard operating
  3010. procedure in Washington agencies and second nature to many of the
  3011. day's speakers.
  3012.  
  3013. Dorothy Denning was one of the first speakers and she reported on
  3014. the findings of the committee of five noted public cryptologists
  3015. who agreed to give the Clipper standard a once-over. Eleven people
  3016. were asked, but six declined for a variety of reasons. The review
  3017. was to be classified "Secret" and some balked at this condition
  3018. because they felt it would compromise their position in public.
  3019.  
  3020. The talk made clear that the government intended to keep the
  3021. standard secret for the sole purpose of preventing people from
  3022. making unauthorized implementations without the law enforcement
  3023. back door. Dr. Denning said that everyone at the NSA believes
  3024. that the algorithm could withstand public knowledge with no trouble.
  3025. The review by the panel revealed no reason why they shouldn't trust
  3026. this assessment.
  3027.  
  3028. Although lack of time lead the panel to largely rubberstamp
  3029. the more extensive review by the NSA, they did conduct a few tests
  3030. of their own. They programmed the algorithm on a Cray YMP, which
  3031. incidentally could process 89,000 encryptions per second in single
  3032. processor mode. This implementation was used for a cycling test which
  3033. they found seemed to imply that there was good randomness. The test
  3034. is done by repeatedly encrypting one value of data until a cycle occurs.
  3035. The results agreed with what a random process should generate.
  3036.  
  3037. They also tested the system for strength against a differential
  3038. cryptanalysis attack and found it worthy. There was really very
  3039. little other technical details in the talk. Saying more would
  3040. have divulged something about the algorithm.
  3041.  
  3042. My general impression is that the system is secure. Many people
  3043. have played paranoid and expressed concerns that the classified
  3044. algorithm might be hiding a trapdoor. It became clear to me that
  3045. these concerns were really silly. There is a built-in trapdoor
  3046. to be used by the government when it is "legal authorized" to
  3047. intercept messages. The NSA has rarely had trouble in the past
  3048. exercising either its explicitly granted legal authority  or
  3049. its implied authority. The phrase "national security" is a
  3050. powerful pass phrase around Washington and there is no reason
  3051. for me to believe that the NSA wouldn't get all of the access
  3052. to the escrow database that it needs to do its job. Building in
  3053. a backdoor would only leave a weakness for an opponent to exploit
  3054. and that is something that is almost as sacrilidgeous at the NSA
  3055. as just putting the classified secrets in a Fed Ex package to
  3056. Saddam Hussein.
  3057.  
  3058. Next there was a report from Geoff Greiveldinger , the man from the
  3059. Department of Justice with the responsibility of implementing the the
  3060. Key Escrow plan. After the Clipper/Capstone/SkipJack chips are
  3061. manufactured, they will be programmed with an individual id number and
  3062. a secret, unique key. A list is made of the id, key pairs and this
  3063. list is split into two halves by taking each unique key, k, and
  3064. finding two numbers a and b such that a+b=k. (+ represents XOR). One
  3065. new list will go to one of the escrow agencies and one will go to the
  3066. other. It will be impossible to recover the secret key without getting
  3067. the list entry from both agencies.
  3068.  
  3069. At this point, they include an additional precaution. Each list
  3070. will be encrypted so even the escrow agency won't be able to
  3071. know what is in its list. The key for decoding this list will
  3072. be locked away in the evesdropping box. When a wiretap is authorized,
  3073. each escrow agency will lookup the halves of the key that correspond
  3074. to the phone being tapped and send these to evesdropping box
  3075. where they will be decrypted and combined. That means that
  3076. two clerks from the escrow agencies could not combine their
  3077. knowledge. They would need access to a third key or an evesdropping
  3078. box.
  3079.  
  3080. It became clear that the system was not fully designed. It wasn't
  3081. obvious how spontenaeous and fully automated the system would
  3082. be. Mr. Greiveldinger says that he is trying to balance the tradeoffs
  3083. between security and efficiency. Officers are bound to be annoyed and
  3084. hampered if they can't start a tap instanteneously. The kidnapping of
  3085. a child is the prototypical example of when this would be necessary.
  3086.  
  3087. The courts also grant authority for "roving" wiretaps that allow
  3088. the police to intercept calls from any number of phones. A tap like
  3089. this begs out for a highly automated system for delivering the
  3090. keys.
  3091.  
  3092. I imagine that the system as it's designed will consist of escrow
  3093. computers with a few clerks who have nothing to do all day. When
  3094. a tap is authorized, the evesdropping box will be programmed with
  3095. a private key and shipped to the agents via overnight express. When
  3096. they figure out the id number of the phone being tapped, the evesdropping
  3097. box will probably phone the two escrow computers, perform a bit of
  3098. zero-knowledge authorization and then receive the two halves of the
  3099. key. This would allow them to switch lines and conduct roving
  3100. taps effectively. The NSA would presumably have a box that would
  3101. allow them to decrypt messages from foreign suspects.
  3102.  
  3103. At this point, I had just listened to an entirely logical presentation
  3104. from a perfect gentleman. We had just run though a system that had many
  3105. nice technological checks and balances in it. Subverting it seemed
  3106. very difficult. You would need access to the two escrow agencies and
  3107. an evesdropping box. Mr. Greiveldinger said that there would be many
  3108. different "auditting" records that would be kept of the taps. It was
  3109. very easy to feel rather secure about the whole system in a nice,
  3110. air-conditioned auditorium where clean, nice legally precise people
  3111. were speaking in measured tones. It was very easy to believe in
  3112. the Rule of Law.
  3113.  
  3114. To counteract this, I tried to figure out the easiest way for me
  3115. to subvert the system. The simplest way is to be a police officer
  3116. engaged in a stakeout of someone for whom you've already received
  3117. a warrant. You request the Clipper evesdropping box on the off chance
  3118. that the suspect will buy a Clipper phone and then you "lend" it
  3119. to a friend who needs it. I think that the automation will allow
  3120. the person who possesses the box to listen in to whatever lines
  3121. that they want. The escrow agency doesn't maintain a list of people
  3122. and id numbers-- they only know the list matching the id number to
  3123. the secret key. There is no way that they would know that a request
  3124. from the field was unreasonable. Yes, the audit trails could be
  3125. used later to reconstruct what the box was used for, but that would
  3126. only be necessary if someone got caught.
  3127.  
  3128. The bribe value of this box would probably be hard to determine,
  3129. but it could be very valuable. We know that the government of France
  3130. is widely suspected of using its key escrow system to evesdrop on
  3131. US manufacturers in France. Would they be willing to buy evesdropping
  3132. time here in America? It is not uncommon to see reports of industrial
  3133. espionage where the spies get millions of dollars. On the other hand,
  3134. cops on the beat in NYC have been influenced for much less. The
  3135. supply and demand theory of economics virtually guarantees that
  3136. some deals are going to be done.
  3137.  
  3138. It is not really clear what real effect the key escrow system is going
  3139. to have on security. Yes, theives would need to raid two different
  3140. buildings and steal two different copies of the tapes. This is
  3141. good. But it is still impossible to figure out if the requests from
  3142. the field are legitimate-- at least within the time constraints posed
  3143. by urgent cases involving terrorism and kidnapping.
  3144.  
  3145. The net effect of implementing the system is that the phone system
  3146. would be substantially strengthened against nieve intruders, but the
  3147. police (and those that bribe them) would still be able to evesdrop
  3148. with impunity. Everyone needs to begin to do a bit of calculus between
  3149. the costs and benefits of this approach. On one hand, not letting the
  3150. police intercept signals will let the crooks run free but on the other
  3151. hand, the crooks are not about to use Clipper phones for their secrets
  3152. if they know that they can be tapped.
  3153.  
  3154. The most interesting speaker was the assistant director of the National
  3155. Security Agency, Dr. Clint Brooks. He immediately admitted that the
  3156. entire Clipper project was quite unusual because the Agency was not
  3157. used to dealing with the open world. Speaking before a wide audience
  3158. was strange for him and he admitted that producing a very low cost
  3159. commercial competitive chip was also a new challenge for them.
  3160.  
  3161. Never-the-less, I found him to be the deepest thinker at the conference.
  3162. He readily admitted that the Clipper system isn't intended to catch
  3163. any crooks. They'll just avoid the phones. It is just going to deny
  3164. them access to the telecommunications system. They just won't be able
  3165. to go into Radio Shack and buy a secure phone that comes off the line.
  3166.  
  3167. It was apparent that he was somewhat skeptical of the Clipper's potential
  3168. for success. He said at one point the possibilities in the system
  3169. made it worth taking the chance that it would succeed. If it could capture
  3170. a large fraction of the market then it could help many efforts of the
  3171. law enforcement and intelligence community.
  3172.  
  3173. When I listened, though, I began to worry about what is going to happen
  3174. as we begin to see the eventual blurring of data and voice communications
  3175. systems. Right now, people go to Radio Shack to buy a phone. It's the
  3176. only way you can use the phone system. In the future, computers, networks
  3177. and telephones are going to be linked in much more sophisticated ways.
  3178. I think that Intel and Microsoft are already working on such a technology.
  3179.  
  3180. WHen this happens, programmable phones are going to emerge. People
  3181. will be able to pop a new ROM in their cellular digital phone or
  3182. install new software in their computer/video game/telephone. This
  3183. could easily be a proprietary encryption system that scrambles
  3184. everything. The traditional way of controlling technology by
  3185. controlling the capital intensive manufacturing sites will be gone. Sure,
  3186. the NSA and the police will go to Radio Shack and say "We want your
  3187. cooperation" and they'll get it. But it's the little, slippery ones
  3188. that will be trouble in the new, software world.
  3189.  
  3190. The end of the day was dominated by a panel of Law Enforcement specialists
  3191. from around the country. These were sheriffs, district attorneys,
  3192. FBI agents and other officers from different parts of the system.
  3193. Their message was direct and they didn't hesitate to compare encryption
  3194. with assault rifles. One even said, "I don't want to see the officers
  3195. outgunned in a technical arena."
  3196.  
  3197. They repeatedly stressed the incredible safe guards placed upon
  3198. the wiretapping process and described the hurdles that the officers
  3199. must go through to use the system. One DA from New Jersey said that
  3200. in his office, they process about 10,000 cases a year, but they only
  3201. do one to two wiretaps on average. It just seems like a big hassle
  3202. and expense for them.
  3203.  
  3204. It is common for the judges to require that the officers have very
  3205. good circumstantial evidence from informers before giving them
  3206. the warrant. This constraint coupled with the crooks natural hesitation
  3207. to use the phone meant that wiretaps weren't the world's greatest
  3208. evidence producers.
  3209.  
  3210. One moment of levity came when a board member asked what the criminals
  3211. favorite type of encryption was. The police refused to answer this one
  3212. and I'm not that sure if they've encountered enough cases to build a
  3213. profile.
  3214.  
  3215. At the end of all of the earnestness and "support-the-cop-on-the-beat",
  3216. I still began to wonder if there was much value to wiretaps at all. The
  3217. police tried to use the low numbers of wiretaps as evidence that they're not
  3218. out there abusing the system, but I kept thinking that this was mainly
  3219. caused by the high cost and relatively low utility of the technique.
  3220.  
  3221. It turns out that there is an easy way to check the utility of these
  3222. devices. Only 37 states allow their state and local police to use
  3223. wiretaps in investigations. One member of the panel repeated the rumor
  3224. that this is supposedly because major politicians were caught with
  3225. wiretaps. The state legislatures in these states supposedly
  3226. realized that receipients of graft and influence peddlers were the main
  3227. target of wiretaps. Evesdropping just wasn't a tool against muggers.
  3228. So they decided to protect themselves.
  3229.  
  3230. It would be possible to check the crime statistics from each of these
  3231. states and compare them against the evesdropping states to discover
  3232. which has a better record against crime. I would like to do this
  3233. if I can dig up the list of states that allow the technique.
  3234. I'm sure that this would prove little, but it could possibly clarify
  3235. something about this technique.
  3236.  
  3237. It is interesting to note that the House of Representative committee
  3238. on the Judiciary was holding hearings on abuses of the National Crime
  3239. Information Center. They came in the same week as the latest round
  3240. of Clipper hearings before the CSAB. The NCIC is a large computer
  3241. system run by the FBI to provide all the police departments with a
  3242. way to track down the past records of people. The widespread access
  3243. to the system makes it quite vulnerable to abuse.
  3244.  
  3245. In the hearings, the Congress heard many examples of unauthorized
  3246. access. Some were as benign as people checking out employees. The
  3247. worst was an ex-police officer who used the system to track down his
  3248. ex-girlfriend and kill her. They also heard of a woman who looked
  3249. up clients for her drug-dealing boyfriend so he could avoid the
  3250. undercover cops.
  3251.  
  3252. These hearings made it obvious that there were going to be problems
  3253. determining the balance of grief. For every prototypical example of
  3254. a child kidnapped to make child pornography, there is a rengade
  3255. police officer out to knock off his ex-girlfriend. On the whole, the
  3256. police may be much more trustworthy than the criminals, but we need
  3257. to ask how often a system like Clipper will aid the bad guys.
  3258.  
  3259.  
  3260. In the end, I reduced the calculus of the decision about Clipper to be
  3261. a simple tradeoff. If we allow widespread, secure encryption, will the
  3262. criminals take great advantage of this system? The secure phones won't
  3263. be useful in rapes and random street crime, but they'll be a big aid
  3264. to organized endeavors. It would empower people to protect their own
  3265. information unconditionally, but at the cost of letting the criminals
  3266. do the same.
  3267.  
  3268. Built-in back doors for the law enforcement community, on the other
  3269. hand, will deny the power of off-the-shelf technology to crooks,
  3270. but it would also leave everyone vulnerable to organized attacks
  3271. on people.
  3272.  
  3273. I began to wonder if the choice between Clipper and totally secure
  3274. encryption was moot. In either case, there would be new opportunities
  3275. for both the law-abiding and the law-ignoring. The amount of crime
  3276. in the country would be limited only by the number of people who
  3277. devote their life to the game-- not by any new fangled technology
  3278. that would shift the balance.
  3279.  
  3280.  
  3281. I did not attend the Friday meeting so someone else will need to summarize
  3282. the details.
  3283.  
  3284.  
  3285.  
  3286.  
  3287.